To see the other types of publications on this topic, follow the link: Modèle linéaire à noyaux.

Dissertations / Theses on the topic 'Modèle linéaire à noyaux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle linéaire à noyaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rossi, Vivien. "Filtrage non linéaire par noyaux de convolution : application à un procédé de dépollution biologique." Montpellier, ENSA, 2004. http://www.theses.fr/2004ENSA0013.

Full text
Abstract:
Cette thèse considère le problème du filtrage non linéaire, c'est à dire l'estimation au cours du temps de l'état, indirectement observé, d'un système dynamique non linéaire. Ce type de problématique concerne une large gamme de modèles relatifs à divers domaines scientifiques. Une approche originale utilisant les noyaux de convolution et des simulations d'un grand nombre de variables aléatoires est développée. Le cas des modèles contenant des paramètres inconnus à estimer est aussi traité. Des propriétés théoriques de convergence sont établies pour ces nouvelles approches. Afin de compléter l'étude de nos techniques, des comparaisons avec les méthodes traditionnelles, notamment avec les différents filtres particulaires, sont réalisées en simulation. Puis nos nouvelles approches sont appliquées sur un problème réel, un bioréacteur de retraitement d'eaux usées. Les performances obtenues, sur données réelles, permettent d'apprécier la robustesse de la méthode par rapport aux erreurs de modèles et aux données de mauvaises qualités.
APA, Harvard, Vancouver, ISO, and other styles
2

Rosa, Vargas José Ismäel de la. "Estimation de la densité de probabilité d'une mesure dans un cadre non-linéaire, non-gaussien." Paris 11, 2002. http://www.theses.fr/2002PA112201.

Full text
Abstract:
Mettre en oeuvre une procédure de mesure passe par la modélisation préalable du phénomène observé. Modéliser devient alors un objectif à part entière même s'il ne faut pas le décorréler de l'objectif de mesure. Au-delà de la construction et du choix de modèle, persiste le problème, à la fois théorique et pratique, de l'évaluation de la densité de probabilité (DDP) des paramètres du modèle retenu. Une fois cette DDP estimée, il faut pouvoir propager cette information statistique jusqu'à la grandeur d'intérêt appelée mesure. Cette mesure étant une fonction non-linéaire des paramètres du modèle. Ainsi, notre travail de recherche porte sur l'estimation de la DDP de la mesure. Pour ce faire, nous proposons une première approche fondée sur les méthodes de type bootstrap. Ces méthodes de simulation comme les méthodes traditionnelles de type Monte-Carlo, requièrent un temps de calcul significatif, cependant elles aboutissent à une très bonne précision sur la caractérisation statistique des systèmes de mesure. Par ailleurs, nous avons pu vérifier que la convergence de ce type de méthodes est plus rapide que celle de la méthode de Monte-Carlo Primitive (MCP). Un avantage certain du bootstrap est sa capacité à déterminer la nature des erreurs agissant sur le système de mesure, grâce à l'estimée de la DDP empirique des erreurs. En outre, l'optimisation de la convergence peut se atteindre en utilisant des schémas de pondération sur les erreurs ou bien, un schéma modifié du bootstrap itéré. Nous proposons aussi l'utilisation d'un schéma d'estimation robuste au cas des données aberrantes. Une deuxième approche est fondée sur l'échantillonnage par les méthodes de Monte-Carlo par chaînes de Markov (MCMC), la caractérisation statistique selon ce point permet d'utiliser toute l'information a priori connue sur le système de mesure, en effectuant une reformulation du problème selon la règle de Bayes. L'échantillonnage de Gibbs et les algorithmes de Metropolis-Hastings ont été exploités dans ce travail. En ce qui concerne l'optimisation de la convergence du MCMC, on a adapté des algorithmes tels que le rééchantillonnage pondéré et le couplage de chaînes dans le temps rétrograde. En particulier, nous avons proposé un échantillonneur de Gibbs par simulation parfaite et un algorithme hybride par simulation parfaite. Une dernière approche au problème d'estimation de la mesure est construite à l'aide des méthodes d'estimation par noyaux. L'idée principale est fondée sur la caractérisation non-paramétrique de la DDP des erreurs, sachant qu'elle est inconnue. .
The characterization and modeling of an indirect measurement procedure is led by a set of previously observed data. The modeling task is it self a complex procedure which is correlated with the measurement objective. Far from model building and model selection, a theoretical and practical problem persists: What is the correct probability density function (PDF) of a parametric model? Once this PDF is approximated, the next step is to establish a mechanism to propagate this statistical information until the quantity of interest. In fact, such a quantity is a measurement estimate and it is a nonlinear function of the parametric model. The present work proposes some different methods to make statistical inferences about the measurement estimate. We propose a first approach based on bootstrap methods. Such methods are classical in statistical simulation together with Monte Carlo methods, and they require a significative time of calcul. However, the precision over the measurement PDF estimated by these methods is very good. On the other hand, we have verified that the bootstrap methods convergence is faster than the Primitive Monte Carlo's one. Another advantage of bootstrap is its capacity to determine the statistical nature of errors which perturb the measurement system. This is doing thanks to the empirical estimation of the errors PDF. The bootstrap convergence optimization could be achieved by smoothing the residuals or by using a modified iterated bootstrap scheme. More over, we propose to use robust estimation when outliers are present. The second approach is based on other sampling techniques called Markov Chain Monte Carlo (MCMC), the statistical inference obtained when using these methods is very interesting, since we can use all a priori information about the measurement system. We can reformulate the problem solution by using the Bayes rule. The Gibbs sampling and the Metropolis-Hastings algorithms were exploited in this work. We overcome to the MCMC convergence optimization problem by using a weighted resampling and coupling from the past (CFTP) schemes, moreover, we adapt such techniques to the measurement PDF approximation. The last proposed approach is based on the use of kernel methods. The main idea is founded on the nonparametric estimation of the errors PDF, since it is supposed unknown. Then, we optimize a criterion function based on the entropy of the errors' PDF, thus we obtain a minimum entropy estimator (MEE). The simulation of this estimation process by means of Monte Carlo, MCMC, or weighted bootstrap could led to us to construct a statistical approximation of the measurement population. .
APA, Harvard, Vancouver, ISO, and other styles
3

Ozier-Lafontaine, Anthony. "Kernel-based testing and their application to single-cell data." Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0025.

Full text
Abstract:
Les technologies de sequençage en cellule unique mesurent des informations à l’échelle de chaque cellule d’une population. Les données issues de ces technologies présentent de nombreux défis : beaucoup d’observations en grande dimension et souvent parcimonieuses. De nombreuses expériences de biologie consistent à comparer des conditions.L’objet de la thèse est de développer un ensemble d’outils qui compare des échantillons de données issues des technologies de séquençage en cellule unique afin de détecter et décrire les différences qui existent. Pour cela, nous proposons d’appliquer les tests de comparaison de deux échantillons basés sur les méthodes à noyaux existants. Nous proposons de généraliser ces tests à noyaux pour les designs expérimentaux quelconques, ce test s’inspire du test de la trace de Hotelling- Lawley. Nous implémentons pour la première fois ces tests à noyaux dans un packageR et Python nommé ktest, et nos applications sur données simulées et issues d’expériences démontrent leurs performances. L’application de ces méthodes à des données expérimentales permet d’identifier les observations qui expliquent les différences détectées. Enfin, nous proposons une implémentation efficace de ces tests basée sur des factorisations matricielles de type Nyström, ainsi qu’un ensemble d’outils de diagnostic et d’interprétation des résultats pour rendre ces méthodes accessibles et compréhensibles par des nonspécialistes
Single-cell technologies generate data at the single-cell level. They are coumposed of hundreds to thousands of observations (i.e. cells) and tens of thousands of variables (i.e. genes). New methodological challenges arose to fully exploit the potentialities of these complex data. A major statistical challenge is to distinguish biological informationfrom technical noise in order to compare conditions or tissues. This thesis explores the application of kernel testing on single-cell datasets in order to detect and describe the potential differences between compared conditions.To overcome the limitations of existing kernel two-sample tests, we propose a kernel test inspired from the Hotelling-Lawley test that can apply to any experimental design. We implemented these tests in a R and Python package called ktest that is their first useroriented implementation. We demonstrate the performances of kernel testing on simulateddatasets and on various experimental singlecell datasets. The geometrical interpretations of these methods allows to identify the observations leading a detected difference. Finally, we propose a Nyström-based efficient implementationof these kernel tests as well as a range of diagnostic and interpretation tools
APA, Harvard, Vancouver, ISO, and other styles
4

Rossignon, Corentin. "Un modèle de programmation à grain fin pour la parallélisation de solveurs linéaires creux." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0094/document.

Full text
Abstract:
La résolution de grands systèmes linéaires creux est un élément essentiel des simulations numériques.Ces résolutions peuvent représenter jusqu’à 80% du temps de calcul des simulations.Une parallélisation efficace des noyaux d’algèbre linéaire creuse conduira donc à obtenir de meilleures performances. En mémoire distribuée, la parallélisation de ces noyaux se fait le plus souvent en modifiant leschéma numérique. Par contre, en mémoire partagée, un parallélisme plus efficace peut être utilisé. Il est doncimportant d’utiliser deux niveaux de parallélisme, un premier niveau entre les noeuds d’une grappe de serveuret un deuxième niveau à l’intérieur du noeud. Lors de l’utilisation de méthodes itératives en mémoire partagée,les graphes de tâches permettent de décrire naturellement le parallélisme en prenant comme granularité letravail sur une ligne de la matrice. Malheureusement, cette granularité est trop fine et ne permet pas d’obtenirde bonnes performances à cause du surcoût de l’ordonnanceur de tâches.Dans cette thèse, nous étudions le problème de la granularité pour la parallélisation par graphe detâches. Nous proposons d’augmenter la granularité des tâches de calcul en créant des agrégats de tâchesqui deviendront eux-mêmes des tâches. L’ensemble de ces agrégats et des nouvelles dépendances entre lesagrégats forme un graphe de granularité plus grossière. Ce graphe est ensuite utilisé par un ordonnanceur detâches pour obtenir de meilleurs résultats. Nous utilisons comme exemple la factorisation LU incomplète d’unematrice creuse et nous montrons les améliorations apportées par cette méthode. Puis, dans un second temps,nous nous concentrons sur les machines à architecture NUMA. Dans le cas de l’utilisation d’algorithmeslimités par la bande passante mémoire, il est intéressant de réduire les effets NUMA liés à cette architectureen plaçant soi-même les données. Nous montrons comment prendre en compte ces effets dans un intergiciel àbase de tâches pour ainsi améliorer les performances d’un programme parallèle
Solving large sparse linear system is an essential part of numerical simulations. These resolve can takeup to 80% of the total of the simulation time.An efficient parallelization of sparse linear kernels leads to better performances. In distributed memory,parallelization of these kernels is often done by changing the numerical scheme. Contrariwise, in sharedmemory, a more efficient parallelism can be used. It’s necessary to use two levels of parallelism, a first onebetween nodes of a cluster and a second inside a node.When using iterative methods in shared memory, task-based programming enables the possibility tonaturally describe the parallelism by using as granularity one line of the matrix for one task. Unfortunately,this granularity is too fine and doesn’t allow to obtain good performance.In this thesis, we study the granularity problem of the task-based parallelization. We offer to increasegrain size of computational tasks by creating aggregates of tasks which will become tasks themself. Thenew coarser task graph is composed by the set of these aggregates and the new dependencies betweenaggregates. Then a task scheduler schedules this new graph to obtain better performance. We use as examplethe Incomplete LU factorization of a sparse matrix and we show some improvements made by this method.Then, we focus on NUMA architecture computer. When we use a memory bandwidth limited algorithm onthis architecture, it is interesting to reduce NUMA effects. We show how to take into account these effects ina task-based runtime in order to improve performance of a parallel program
APA, Harvard, Vancouver, ISO, and other styles
5

Saumard, Mathieu. "Contribution à l'analyse statistique des données fontionnelles." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
APA, Harvard, Vancouver, ISO, and other styles
6

Saad, Mohamad. "Méthodes statistiques et stratégies d'études d'association de phénotypes complexes : études pan-génomiques de la maladie de Parkinson." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1657/.

Full text
Abstract:
Mon travail de thèse s'intéresse aux méthodes statistiques et stratégies d'étude de la composante génétique de maladies complexes chez l'homme et spécifiquement de la Maladie de Parkinson (MP). Ces travaux sont principalement développés dans le cadre d'études d'association pan-génomiques dans deux contextes : détection de variants fréquents et détection de variants rares. Le criblage du génome entier (GWAS) est une stratégie d'étude optimale à condition de bien contrôler les niveaux des erreurs de type I et de type II. En effet, un grand nombre de tests statistiques sont réalisés ; des problèmes de stratification de population sont possibles et leurs effets doivent être contrôlés. Par ailleurs, malgré leurs tailles d'échantillon relativement importantes, les études GWAS, basées sur le test simple-marqueur, peuvent s'avérer individuellement peu puissantes pour détecter des variants génétiques fréquents à effets faibles. L'utilisation des tests multi-marqueur peut optimiser l'utilisation de la variabilité génétique et donc augmenter la puissance des études GWAS. Je me suis intéressé à l'étude de ces tests et spécifiquement le test " SNP-Set " basé sur la méthode statistique de noyau et le test haplotypique. J'ai étudié les aspects théoriques de ces tests et j'ai évalué leurs propriétés statistiques dans nos données empiriques de MP. Ainsi pour nos analyses de MP, j'ai développé des techniques d'imputations et de méta-analyses afin d'augmenter la couverture de la variabilité génétique et la taille d'échantillon. L'analyse d'association pour des variants rares présente plusieurs défis. Le test d'association simple-marqueur ne permet pas d'étudier tels variants et le coût des analyses à grande échelle de données de séquence reste prohibitif pour l'étude de maladies complexes. Notre design d'étude est une approche alternative qui repose sur la combinaison de données publiques de séquence aux données GWAS. Différents tests d'association pour l'étude de variants rares ont été récemment proposés mais leurs propriétés statistiques sont à ce jour mal connues. Par ailleurs, à l'échelle pan-génomique, les erreurs de type I et de type II de ces méthodes peuvent être influencées par certains facteurs comme la longueur du gène, l'hétérogénéité allélique dans le gène, le LD entre SNPs, le chevauchement entre gènes et la corrélation SNPs fréquents et maladie. J'ai évalué les propriétés statistiques de plusieurs de ces méthodes dans des données simulées et aussi dans nos données de MP. Nous montrons que plusieurs méthodes, basées sur le modèle linéaire mixte, sont mathématiquement équivalentes et que certaines sont des cas particuliers d'autres. En conclusion, nous avons développé des stratégies et méthodes d'analyse, combinant des approches complémentaires (Maladie commune-variant fréquent vs Maladie commune -variant rare) dans le but d'optimiser la caractérisation de la composante génétique de MP en particulier et de maladies complexes en générale
My thesis has focused on statistical methods and strategies to study the genetic components of complex human traits and especially of Parkinson's Disease (PD). My work was developed mainly in two contexts of genome wide association studies (GWAS): the detection of common variants and the detection of rare variants. GWAS is an optimal approach in which we have to control for the type I error and the type II error rates. Indeed, a large number of tests are performed. In addition, we must control for potential population stratification problems. Despite the large sample sizes in recent GWASs based on the single-marker test, they may have individually low power to detect common variants with small effects. The use of the multi-marker test may optimize the coverage of genetic variability and thus increase the power of GWAS. I have focused on the study of these tests, especially the "SNP-Set" test based on kernel machine regression and the haplotypic test. I studied the theoretical aspects of these tests and I evaluated the statistical properties in our empirical data for PD. In addition, in our analyses for PD, I developed imputation and meta-analysis techniques to increase the coverage of the genetic variability and the sample size. Association analysis for rare variants faces several challenges. The single marker test is not powerful to detect such variants and the cost of whole-genome sequence analyses for complex traits is still prohibitive. Our design is a cost-effective alternative which is based on the joint use of public sequence data and GWAS data. Several new tests have been proposed but, to date, their statistical properties are still unclear. On the genome-wide level, the type I error and the type II error rates may depend on several factors as gene length, allelic heterogeneity in the gene, LD between SNPs, overlap between genes and the correlation between the common variants and the trait. I evaluated the statistical properties of several methods in simulated data and also in our GWAS PD data. We show that several methods, based on the linear mixed model, are mathematically equivalent and some are special cases of others. In conclusion, we developed strategies and analytical methods which combine complementary approaches (Common Disease-Common Variant versus Common Disease-Rare Variant) to optimize the characterization of the genetic components of PD in particular and of complex traits in general
APA, Harvard, Vancouver, ISO, and other styles
7

Le, Thi Xuan Mai. "Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0006/document.

Full text
Abstract:
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance
The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
APA, Harvard, Vancouver, ISO, and other styles
8

Isoard, Alexandre. "Extending Polyhedral Techniques towards Parallel Specifications and Approximations." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN011/document.

Full text
Abstract:
Les techniques polyédriques permettent d’appliquer des analyses et transformations de code sur des structures multidimensionnelles telles que boucles imbriquées et tableaux. Elles sont en général restreintes aux programmes séquentiels dont le contrôle est affine et statique. Cette thèse consiste à les étendre à des programmes comportant par exemple des tests non analysables ou exprimant du parallélisme. Le premier résultat est l'extension de l’analyse de durée de vie et conflits mémoire, pour les scalaires et les tableaux, à des programmes à spécification parallèle ou approximée. Dans les travaux précédents sur l’allocation mémoire pour laquelle cette analyse est nécessaire, la notion de temps ordonne totalement les instructions entre elles et l’existence de cet ordre est implicite et nécessaire. Nous avons montré qu'il est possible de mener à bien de telles analyses sur un ordre partiel quelconque qui correspondra au parallélisme du programme étudié. Le deuxième résultat est d'étendre les techniques de repliement mémoire, basées sur les réseaux euclidiens, de manière à trouver automatiquement une base adéquate à partir de l'ensemble des conflits mémoire. Cet ensemble est fréquemment non convexe, cas qui était traité de façon insuffisante par les méthodes précédentes. Le dernier résultat applique les deux analyses précédentes au calcul par blocs "pipelinés" et notamment au cas de blocs de taille paramétrique. Cette situation donne lieu à du contrôle non-affine mais peut être traité de manière précise par le choix d’approximations adaptées. Ceci ouvre la voie au transfert efficace de noyaux de calculs vers des accélérateurs tels que GPU, FPGA ou autre circuit spécialisé
Polyhedral techniques enable the application of analysis and code transformations on multi-dimensional structures such as nested loops and arrays. They are usually restricted to sequential programs whose control is both affine and static. This thesis extend them to programs involving for example non-analyzable conditions or expressing parallelism. The first result is the extension of the analysis of live-ranges and memory conflicts, for scalar and arrays, to programs with parallel or approximated specification. In previous work on memory allocation for which this analysis is required, the concept of time provides a total order over the instructions and the existence of this order is an implicit requirement. We showed that it is possible to carry out such analysis on any partial order which match the parallelism of the studied program. The second result is to extend memory folding techniques, based on Euclidean lattices, to automatically find an appropriate basis from the set of memory conflicts. This set is often non convex, case that was inadequately handled by the previous methods. The last result applies both previous analyzes to "pipelined" blocking methods, especially in case of parametric block size. This situation gives rise to non-affine control but can be processed accurately by the choice of suitable approximations. This paves the way for efficient kernel offloading to accelerators such as GPUs, FPGAs or other dedicated circuit
APA, Harvard, Vancouver, ISO, and other styles
9

Raoux, Jean-Jacques. "Modélisation non-linéaire des composants électroniques : du modèle analytique au modèle tabulaire paramétrique." Limoges, 1995. http://www.theses.fr/1995LIMO0006.

Full text
Abstract:
Le but de notre travail est la modelisation electrique des composants actifs. Nous avons envisage deux types d'approches. La premiere est une approche analytique qui necessite la mise en uvre d'une methode d'optimisation. Nous avons choisi la methode du recuit simule qui permet de simuler un processus de minimisation d'une fonction en mettant en uvre le critere de metropolis-boltzmann. La seconde approche est plus abstraite: elle consiste a determiner, a partir de tables issues des mesures, des equations respectant un certain nombre de contraintes. On obtient un modele par table. Les methodes d'interpolation ne peuvent convenir pour notre probleme car les erreurs de mesures peuvent induire des erreurs importantes sur les derivees. Nous avons donc mis au point une methode de modelisation a partir de splines d'approximation exprimees dans la base des b-splines et dont les deux principales etapes sont d'une part le developpement d'un algorithme autoadaptatif permettant d'optimiser la repartition des mesures dans l'intervalle d'etude et d'autre part une approche parametrique du probleme. L'integration du modele dans des simulateurs montre la fiabilite de celui-ci et son association au concept de circuit parametrique equivalent permet de simplifier et d'accelerer la resolution de l'equation d'equilibrage harmonique
APA, Harvard, Vancouver, ISO, and other styles
10

Le, Treust Loïc. "Méthodes variationnelles et topologiques pour l'étude de modèles non liénaires issus de la mécanique relativiste." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00908953.

Full text
Abstract:
Cette thèse porte sur l'étude de modèles non linéaires issus de la mécanique quantique relativiste.Dans la première partie, nous démontrons à l'aide d'une méthode de tir l'existence d'une infinité de solutions d'équations de Dirac non linéaires provenant d'un modèle de hadrons et d'un modèle de la physique des noyaux.Dans la seconde partie, nous prouvons par des méthodes variationnelles l'existence d'un état fondamental et d'états excités pour deux modèles de la physique des hadrons. Par la suite, nous étudions la transition de phase reliant les deux modèles grâce à la Gamma-convergence.La dernière partie est consacrée à l'étude d'un autre modèle de hadrons dans lequel les fonctions d'onde des quarks sont parfaitement localisées. Nous énonçons quelques résultats préliminaires que nous avons obtenus.
APA, Harvard, Vancouver, ISO, and other styles
11

Borejsza, Karol. "Etude du modèle de Hubbard bidimensionnel dans l'approche du modèle sigma non linéaire effectif." Paris 11, 2004. http://www.theses.fr/2004PA112288.

Full text
Abstract:
Nous etudions les fluctuations magnetiques et les proprietes a une particule (1p) du modele de hubbard a 2d, en decrivant les fluctuations de spin par un modele sigma non lineaire (msnl) effectif. Notre theorie suppose l'existence d'un ordre antiferromagnetique (af) a courte portee. Elle est valable pour toute valeur de l'interaction coulombienne u, en dessous d'une temperature de cross-over, ou s'etablit l'ordre af local. Au demi-remplissage, nous traÇons le diagramme de phases magnetique nous montrons qu'a temperature nulle (t=0) l'ordre af existe quelle que soit la valeur de u. Le fondamental evolue continument entre un regime caracteristique de l'af de slater a faible u et un comportement de type mott-heisenberg a grand u. A t>0, l'ordre af disparait, en accord avec le theoreme de mermin-wagner. Cependant, la longueur de correlation af reste tres grande par rapport a la maille du reseau, nous developpons une nouvelle methode de calcul des proproetes a 1p, qui tient compte de la nature non gaussienne des fluctuations de spin. Nous rendons compte d'une transition entre un regime de faible u ou un pseudogap apparait dans le spectre des fermions et un regime de grand u ou les excitations a 1p sont gappees. Nous etudions l'evolution des quasi particules (qp) de bogoliubov a t=o en precurseurs incoherents a t>0. Dans le cas dope, nous presentons une nouvelle technique de derivation de l'action effective de basse energie, celle-ci fait intervenir des qp de bogoliubov au voisinage de la surface de fermi couplees a un msnl decrivant les fluctuations de spin. L'action de basse energie est comparee aux modeles phenomenologiques connus de fermions couples a un msnl
We study magnetic and one-particle properties of the 2d hubbard model within the framework of a non-linear sigma model (nlsm) description of spin fluctuations the theory rests upon the assumption of local antiferromagnetic (af) ordering. It is valid at all coulom interaction strengths, below a cross-over temperature marking the onset of af short-range order. At half-filling, we derive the magnetic phase diagram and compute the fermion spectral function. At zero temperature, long-range af order is shown to be present for all values of the coulomb repulsion. The ground-state exhibits a smooth transition from a slater-like behavior at weak coupling, to a mott-heisenberg-like behavior at strong coupling. At finite temperatures the af order is suppressed, in agreement with the mermin-wagner theorem, but the af correlation length remains exponentially large with respect to the lattice spacing, we develop a new technique for calculating the spectral function and the density of states, which takes into account the highly non-gaussian nature of magnetic fluctuations. We establish the existence of a transition between a weak-coupling regime exhibiting a pseudogap at finite temperatures, and a strong-coupling regime where one-particle excitations are gapped. The properties of bogoliubov quasi particles at zero temperature and of their precursors at finite temperatures are analyzed. Away from half filling, a new method for deriving the low-energy effective action is proposed. The effective model involves low-energy bogoliubov quasi particles coupled to a nlsm. The low-energy action is critically compared to known phenomenological nlsm-fermion theories
APA, Harvard, Vancouver, ISO, and other styles
12

Dauxois, Thierry. "Dynamique non linéaire et mécanique statistique d'un modèle d'ADN." Dijon, 1993. http://www.theses.fr/1993DIJOS003.

Full text
Abstract:
Nous étudions la dynamique et la mécanique statistique de la dénaturation thermique de l'ADN à partir d'un modèle qui peut être considéré comme une extension des modèles d'Ising. Les simulations numériques à l'équilibre thermique, avec la méthode de Nosé, montrent que, malgré sa simplicité, le modèle procure une description satisfaisante de la dynamique puisque nous avons trouvé des ouvertures fluctuantes et la formation de bulles qui gravissent et se combinent pour conduire à une dénaturation complète de la molécule. Nous avons développé la méthode des fonctions de Green pour tenir compte en détail des effets de discrétisation sur la dynamique non linéaire des breathers. La principale conclusion qui renait des résultats est que la discrétisation de la chaine peut être la raison fondamentale de la stabilité des solutions localisées en général et des breathers en particulier. Nous présentons également un mécanisme qui permettrait de créer des breathers de grande amplitude à partir de ceux de faible amplitude, facilement créés par l'énergie thermique du système. Deux méthodes complémentaires sont utilisées pour étudier la mécanique statistique du modèle. La méthode de l'intégrale de transfert met en évidence que le système présente une dénaturation thermique et que les effets de discrétisation sont suffisamment importants pour élever de manière significative la température de dénaturation. La méthode des phonons self-consistents, en tenant compte de la correction au deuxième ordre, met en relief les effets dominants de la non-linéarité dans les effets précurseurs au voisinage de la transition. De plus, une contribution importante de cette étude à la mécanique statistique est la démonstration qu'un simple système unidimensionnel avec un potentiel non linéaire de substrat et un couplage anharmonique entre plus proches voisins, peut subir une transition extrêmement étroite induite par l'entropie
APA, Harvard, Vancouver, ISO, and other styles
13

Bruneau, Laurent. "Modèle hamiltonien pour le frottement linéaire en milieu homogène." Lille 1, 2002. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2002/50376-2002-363.pdf.

Full text
Abstract:
On introduit et on étudie un modèle hamiltonien composé d'une particule et d'un milieu dissipatif, homogène, et tel que la particule ressente une force de frottement linéaire effective. La particule sera également soumise à un potentiel extérieur V. Le milieu est constitué de champs scalaires vibratoires situés en chaque point de l'espace et représentant des obstacles avec lesquels la particule peut échanger énergie et implusion. On s'intéresse au comportement asymptotique de la particule et ce pour deux types de potentiel : les potentiels linéaires, autrement dit le cas d'une force extérieure constante, et les potentiels confinants. On montrera que, pour une large classe de conditions initiales et sous certaines hypothèses sur les paramètres du modèle (en particulier sur la vitesse de propagation des ondes dans le milieu), la particule a le même comportement asymptotique que si son mouvement était régi par l'équation : (. . . ), i. E. En plus de la force dérivant du potentiel V, la particule ressent une force de frottement (. . . ) résumant les effets dus à la réaction du milieu au passage de la particule, où gamma est une constante dépendant explicitement des paramètres du modèle et indépendante du potentiel. En particulier, dans le cas d'une force constante F, la particule atteint une vitesse limite v(F) ne dépendant que de la force F et proportionnelle à celle-ci. Si par contre, la particule est soumise à un potentiel confinant, on montrera que celle-ci "s'arrête" en l'un des points critiques du potentiel. On introduira également la version quantique de ce modèle, en présentant d'abord brièvement quelques outils théoriques nécessaires à son écriture, puis en précisant l'espace des états et hamiltonien quantique. On montrera le caractère auto-adjoint de ce dernier et on s'intéressera enfin à la question de l'existence d'un état fondamental.
APA, Harvard, Vancouver, ISO, and other styles
14

Xiang, Yan. "Un modèle de plaque en élasticité linéaire et non linéaire : convergence du développement asymptotique de la plaque élastique non linéaire." Paris 6, 1989. http://www.theses.fr/1989PA066519.

Full text
Abstract:
On décrit, en général, par plaque encastrée un modèle de plaque qui a les cotes latéraux fixes. Or, dans la réalité, une plaque encastrée a toujours une partie voisine près de la cote qui est fixée aussi. D'ou l'idée de plaque réellement encastrée. Nous établissons tels modèles de plaque dans le cadre de l'élasticité linéaire et non linéaire en utilisant la méthode de développement asymptotique appliquée à la formulation variationnelle. Nous verrons alors que les difficultés résident au calcul de la troisième colonne du tenseur des contraintes de piola-kirchhoff. Apres avoir établi de tels modèles, nous examinons leurs approches à la plaque encastrée quand la mesure de la partie fixée autre que cotes latérales tend vers zéro. Nous obtenons alors la conclusion que la plaque encastrée est une limite de la plaque réellement encastrée. Nous traitons dans la deuxième partie la convergence de développement asymptotique d'une plaque encastrée en théorie de l'élasticité non linéaire. Avec l'hypothèse le vecteur de déplacements et le tenseur des contraintes de piola-kirchhoff sont bornes dans leurs espaces, nous démontrons qu'il existe une sous suite du vecteur de déplacement et du tenseur des contraintes qui converge faiblement vers l'une des solutions du problème limite. Ce résultat est généralise par la suite a la plaque encastrée avec une loi de comportement générale. Nous remarquons que la convergence d'une sous suite est justifiée par la non-unicite des solutions du problème limite
APA, Harvard, Vancouver, ISO, and other styles
15

Chokri, Khalid. "Contributions à l'inférence statistique dans les modèles de régression partiellement linéaires additifs." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066439/document.

Full text
Abstract:
Les modèles de régression paramétrique fournissent de puissants outils pour la modélisation des données lorsque celles-ci s’y prêtent bien. Cependant, ces modèles peuvent être la source d’importants biais lorsqu’ils ne sont pas adéquats. Pour éliminer ces biais de modélisation, des méthodes non paramétriques ont été introduites permettant aux données elles mêmes de construire le modèle. Ces méthodes présentent, dans le cas multivarié, un handicap connu sous l’appellation de fléau de la dimension où la vitesse de convergence des estimateurs est une fonction décroissante de la dimension des covariables. L’idée est alors de combiner une partie linéaire avec une partie non-linéaire, ce qui aurait comme effet de réduire l’impact du fléau de la dimension. Néanmoins l’estimation non-paramétrique de la partie non-linéaire, lorsque celle-ci est multivariée, est soumise à la même contrainte de détérioration de sa vitesse de convergence. Pour pallier ce problème, la réponse adéquate est l’introduction d’une structure additive de la partie non-linéaire de son estimation par des méthodes appropriées. Cela permet alors de définir des modèles de régression partièllement linéaires et additifs. L’objet de la thèse est d’établir des résultats asymptotiques relatifs aux divers paramètres de ce modèle (consistance, vitesses de convergence, normalité asymptotique et loi du logarithme itéré) et de construire aussi des tests d’hypothèses relatives à la structure du modèle, comme l’additivité de la partie non-linéaire, et à ses paramètres
Parametric regression models provide powerful tools for analyzing practical data when the models are correctly specified, but may suffer from large modelling biases when structures of the models are misspecified. As an alternative, nonparametric smoothing methods eases the concerns on modelling biases. However, nonparametric models are hampered by the so-called curse of dimensionality in multivariate settings. One of the methods for attenuating this difficulty is to model covariate effects via a partially linear structure, a combination of linear and nonlinear parts. To reduce the dimension impact in the estimation of the nonlinear part of the partially linear regression model, we introduce an additive structure of this part which induces, finally, a partially linear additive model. Our aim in this work is to establish some limit results pertaining to various parameters of the model (consistency, rate of convergence, asymptotic normality and iterated logarithm law) and to construct some hypotheses testing procedures related to the model structure, as the additivity of the nonlinear part, and to its parameters
APA, Harvard, Vancouver, ISO, and other styles
16

Chehade, Habib. "Modélisation des composants microélectroniques non linéaires par séries de Volterra à noyaux dynamiques, pour la CAO des circuits RF et micro-ondes." Limoges, 1998. http://www.theses.fr/1998LIMO0041.

Full text
Abstract:
L'objectif de ce travail est de developper un modele boite noire des composants electroniques et d'evaluer ses performances dans un simulateur de circuits base sur la methode de l'equilibrage harmonique. Le modele concerne est base sur la modelisation mathematique des non linearites a memoire par les series de volterra a noyaux dynamiques. Ces series ont la propriete de converger rapidement dans le cas d'une memoire non lineaire de courte duree, et ce meme en presence de tres fortes non linearites. On obtient ainsi une bonne approximation de la reponse du composant tout en limitant le developpement de la serie au premier ordre premier ordre. Les parametres de la serie sont ainsi directement lies aux caracteristiques statiques et aux parametres s du composant a modeliser. Le lien direct modele-mesures permet le passage direct de la phase de caracterisation a la phase de simulation sans le souci de determiner une structure de schema equivalent et une recherche fastidieuse des parametres. Ce modele permet grace a sa forme integrale de representer les phenomenes distribues existants dans le composant, propriete qui manque a la majorite des modeles a schema equivalent actuels.
APA, Harvard, Vancouver, ISO, and other styles
17

Violette, Rémi. "Modèle linéaire des vibrations induites par vortex de structures élancées." Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00005094.

Full text
Abstract:
Les structures dites « offshores » vibrent sous l'effet des courants marins. Ces vibrations, induites par le détachement périodique de tourbillons dans le sillage de la structure (d'où le nom vibrations induites par vortex), endommagent par fatigue les câbles et les éléments de tuyauteries qui relient à la plateforme d'exploitation les têtes de puits de pétrole situés au niveau du sol marin. Une compréhension du comportement dynamique de ces structures sous l'effet du détachement tourbillonnaire est donc essentielle à l'étape de design. A l'intérieur de cette thèse, nous démontrons qu'en utilisant le concept d'oscillateur fluide et stabilité linéaire, on peut comprendre et reproduire de façon qualitative les caractéristiques principales des VIV sur les structures élancées en écoulements uniformes et non uniformes. Les arguments justifiant l'utilisation de la méthode de modélisation choisie sont présentés au deuxième chapitre. Les troisième et quatrième chapitres sont respectivement dédiés aux écoulements uniformes et non uniformes. Dans les deux cas, la théorie est développée à partir d'une analyse de stabilité linéaire des systèmes d'ondes structure-sillage. La méthodologie proposée constitue un outil de design efficace, puisqu'il permet la connaissance de la dynamique de configurations complexes et que son coût en terme de temps de calcul est très faible.
APA, Harvard, Vancouver, ISO, and other styles
18

Rego, Rui. "Sur un modèle non linéaire d'interaction entre flamme et acoustique." Poitiers, 2006. http://www.theses.fr/2006POIT2304.

Full text
Abstract:
Les flammes prémélangées peuvent être représentées comme des interfaces minces et actives, un point de vue qu'on adopte ici. Alors qu'existent des approches asymptotiques, fournissant des Equations d'Evolution (EE) du 1er-order-en temps qui soient précises, elles cessent d'être applicables lorsque les accélérations sont non négligeables. Pourtant, on peut bâtir quelques EE, capables de prendre en compte les effets les à l'accélération : celles-ci liés à découlent d'arguments de symétrie, de la phénoménologie disponible et leur consistance avec des cas-limite connus. De telles EE peuvent prendre en compte des effets d'accélération, externes ou induites, et de la non-linéarité d'Huygens, pourvu que la invariance Galiléen fût vérifie. Ce modèle couple la dynamique de la forme de flamme (méthode Fourier pseudo-spectrale) et l'acoustique externe, elle-même linéaire en moyenne. Tous les tests portant sur la réponse de notre modèle de flamme à une accélération imposée ont étés validés, même en régime non-linéaire. Ce système-modèle, global et non-linéaire, est résolu numériquement dans le cas de flammes se propageant le long d'un tube, par exemple. Des extensions sont aussi envisagées
Premixed flames may be considered as thin active interfaces, a point of view that we adopt here. Whereas accurate asymptotic expansions methods exist to obtain first-order-in-time Evolution Equations, whenever flow-field accelerations intervene those methods fail to provide an unambiguous answer. Still, suitable designed Evolution Equations that are able to handle with flow accelerations are tailored, based on phenomenological grounds, symmetry arguments, and consistency with known limiting cases. Those describe flame dynamics by a second-order-in-time Evolution Equation, with a geometrical non-linearity stemming from normal (Huygens) propagation, the density change, the overall geometry, and the inertia-induced gravitational forcing, provided that Galilean invariance is fulfilled. This flame EE model is numerically coupled with its self-induced acceleration field, where linear acoustics is shown to prevail on transverse average. The flame-shape evolution is handled via a Fourier pseudo-spectral method, which is checked against flame responses to prescribed accelerations successfully, even in the nonlinear regime. This nonlinear, global, system model is solved for flames in tubes as an example. Follow-on studies are also envisaged
APA, Harvard, Vancouver, ISO, and other styles
19

MICHEL, Nicolas. "Description des noyaux faiblement liés par le modèle en couches avec couplage au continuum." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002338.

Full text
Abstract:
Les résultats expérimentaux récents concernant les noyaux aux limites de la stabilité ont motivé la recherche de nouveaux modèles nucléaires.
Pour cela, on a développé le modèle en couches avec couplage au continuum, qui permet de prendre en compte à la fois les corrélations entre nucléons et l'influence du continuum. Ce modèle a été utilisé dans ce travail pour l'étude des spectres des noyaux 17 F et 17 O. Aussi, on peut calculer des sections efficaces de capture radiative et de diffusion élastique, qu'on a appliqué aux réactions 16 O (p,p) 16 O et 16 O (p,gamma) 17 F. Cette dernière réaction a un intérêt astrophysique car elle joue un rôle important dans la formation des éléments légers dans les étoiles. On a de plus calculé les transitions bêta premières interdites des réactions 17 Ne -> 17 F et 17 N -> 17 O. Le formalisme étudié permet en effet de considérer avec le même hamiltonien les différentes observables de structure et de réaction.
Aussi, et c'est une première, on a introduit un nouveau modèle susceptible de donner de nouvelles informations sur les noyaux peu liés ou résonnants, le modèle en couches avec états de Gamow. Ce modèle est une généralisation du modèle en couche standard, car sa base est constituée d'états liés, résonnants et de diffusion. De plus, l'émission de plusieurs particules corrélés peut se faire, contrai- rement au modèle en couches avec couplage au continuum. On a étudié avec ce modèle les spectres des noyaux issus des chaînes d'isotopes d'oxygène de 17 O à 22 O et d'hélium de 5 He à 9 He, où le continuum a un rôle respectivement non négligeable et crucial. Aussi, on a considéré les transitions électromagnétiques et les densités de particules de valence de ces isotopes pour ces mêmes chaînes. On a pu montrer que ce modèle est utilisable d'un point de vue pratique, ce qui est intéressant car il possède la généralité du modèle en couches et n'a aucune restriction du nombre de particules dans le continuum.
APA, Harvard, Vancouver, ISO, and other styles
20

Michel, Nicolas. "Description des noyaux faiblement liés par le modèle en couches avec couplage au continuum." Caen, 2002. http://www.theses.fr/2002CAEN2047.

Full text
Abstract:
Les résultats expérimentaux récents concernant les noyaux aux limites de la stabilité ont motivé la recherche de nouveaux modèles nucléaires. Pour cela, on a développé le modèle en couches avec couplages au continuum, qui permet de prendre en compte à la fois les corrélations entre nucléons et l'influence du continuum. Ce modèle a été utilisé dans ce travail pour l'étude des spectres des noyaux 17F et 17O. Aussi, on peut calculer des sections efficaces de capture radiative et de diffusion élastique, qu'on a appliqué aux réactions 16O(p,p)16O et 16O(p,γ)17F. Cette dernière réaction a un intérêt astrophysique car elle joue un rôle important dans la formation des éléments légers dans les étoiles. On a de plus calculé les transitions beta premières interdites des réactions 17Ne flèche 17F et 17N flèche 17O. Le formalisme étudié permet en effet de considérer avec le même hamiltonien les différentes observables de structure et de réaction. Aussi, et c'est une première, on a introduit un nouveau modèle susceptible de donner de nouvelles informations sur les noyaux peu liés ou résonnants, le modèle en couches avec états de Gamow. Ce modèle est une généralisation du modèle en couche standard, car sa base est constituée d'états liés, résonnants et de diffusion. De plus, l'émission de plusieurs particules corrélées peut se faire, contrairement au modèle en couches avec couplage au continuum. On a étudié avec ce modèle les spectres des noyaux issus des chaînes d'isotopes d'oxygène de 17O à 22O et d'hélium de 5He à 9He, où le continuum a un rôle respectivement non négligeable et crucial. Aussi, on a considéré les transitions électromagnétiques et les densités de particules de valence de ces isotopes pour ces mêmes chaînes. On a pu montrer que ce modèle est utilisable d'un point de vue pratique, ce qui est intéressant car il possède la généralité du modèle en couches et n'a aucune restriction du nombre de particules dans le continuum.
APA, Harvard, Vancouver, ISO, and other styles
21

Denoual, Franck. "Développement d'une plate-forme logicielle orientée objet pour la décompression et l'édition vidéo sur noyau temps-réel." Rennes 1, 2001. http://www.theses.fr/2001REN10107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Lyazrhi, Faouzi. "Procédures optimales de détection de ruptures dans un modèle linéaire gaussien." Toulouse 3, 1993. http://www.theses.fr/1993TOU30076.

Full text
Abstract:
Nous considérons l'étude de l'optimalité au sens de bayes des techniques de détection d'éventuelle(s) rupture(s) dans un modèle linéaire gaussien. Nous présentons le problème comme une règle de décision multiple entre l'hypothèse d'absence de rupture et l'une des hypothèses de présence de rupture en un ou des point(s) donne(s) traitant ainsi simultanément les deux questions de test et d'estimation. Nous proposons tout d'abord une procédure invariante, optimale pour une fonction de perte simple et une large famille de lois de probabilités a priori; et nous montrons son équivalence, dans des cas particuliers importants, avec les règles les plus usuelles de la littérature, ce qui confère a certaines d'entre elles une forme d'optimalité. Nous définissons ensuite une nouvelle fonction de perte plus réaliste et donnons la procédure optimale associée. Nous comparons alors sur des exemples simules les performances des deux procédures précédentes et de certaines autres procédures rencontrées dans la littérature. Nos propositions sont aussi illustrées par des exemples réels. En ce qui concerne le problème des valeurs critiques inhérent a toutes ces procédures de décision, nous proposons une méthode empirique permettant de les évaluer dans tous les cas. Nous dressons ensuite des tables donnant quelques valeurs critiques pour les niveaux usuels. Enfin, nous élaborons une procédure multiple optimale (pour une certaine fonction de perte) pour détecter au plus k ruptures, ou k est un entier strictement supérieur a 1. Nous en donnons une illustration a l'aide des exemples réels cites plus haut.
APA, Harvard, Vancouver, ISO, and other styles
23

Seck, Ousmane. "Sur un modèle de diffusion non linéaire en dynamique des populations." Nancy 1, 1986. http://www.theses.fr/1986NAN10162.

Full text
Abstract:
Les équations d'évolution. Étude dans L**(1) de solutions particulières. Les résultats d'existence connus. Estimations à priori. Relaxation des hypothèses de régularité et de compatibilité. Relaxation des hypothèses de stricte positivité
APA, Harvard, Vancouver, ISO, and other styles
24

Nasser, Alissar. "Contribution à la classification non supervisée par machines à noyaux." Littoral, 2007. http://www.theses.fr/2007DUNK0182.

Full text
Abstract:
La classification automatique non supervisée suscite de plus en plus d’intérêt dans différents domaines des sciences de l’ingénieur. Ceci est dû au développement rapide des moyens technologiques de mesure et de stockage générant de grandes quantités de données issues de sources diverses dont il faut analyser afin d’en extraire des informations utiles. Le principe de la classification non supervisée est justement de doter les machines de la capacité à découvrir des groupes naturels ou classes dans les objets présents aux entrées sans aucune connaissance a priori. Deux grandes catégories de méthodes existent : (1) les méthodes de classification dans l’espace d’entrée multidimensionnel et (2) les méthodes de projection pour la visualisation plane. Les premières cherchent des groupes denses ou des zones de fortes densités de probabilité alors que les secondes fournissent une vue plane image des données multidimensionnelles. La solution de bon sens est de faire coopérer ces méthodes d’une manière interactive impliquant l’opérateur humain dans le processus d’exploration de la structure des données. Récemment, les machines à noyaux ont connu un vif succès en classification non supervisée. L’idée de base est au lieu de projeter ou classer directement les données, on les transforme dans un espace de caractéristiques de grande dimension où les points images sont susceptibles d’être linéairement séparables. Ensuite, une technique classique de projection linéaire telle que l’analyse en composantes principales (PCA) ou de partitionnement tel que l’algorithme des K-means, sera appliquée sur les points dans leur espace de caractéristiques. C’est le principe des méthodes à noyaux ou « kernels » : kernel PCA, kernel K-means, etc. Le mémoire se propose de montrer l’apport des machines à noyaux dans la classification non supervisée, notamment en projection et en classification. Il présente au début les méthodes traditionnelles de projection pour ensuite exposer les méthodes d’analyse en composantes principales à noyau, les méthodes de classification spectrale et les méthodes de partitionnement kernel K-means. Les problèmes d’ajustement des paramètres et d’estimation du nombre des classes sont étudiés à travers des exemples de données synthétiques et réelles et les résultats des différentes méthodes sont comparés. Les approches de classification sont enfin appliquées pour l’aide à la détection d’évènements audio dans le transport public
Unsupervised classification has emerged as a popular technique for pattern recognition, image processing, and data mining. This is due to the development of advanced data measurements tools and data storage devices resulting in a huge quantity of data. This makes it necessary to analyze these data in order to extract some useful information. Unsupervised classification is one of the well-studied techniques, which concerns the partitioning of similar objects into clusters without any prior knowledge, such that objects in the same cluster share some unique properties. Two main categories of methods exist : (1) clustering methods in the multidimensional space and (2) projection methods for exploratory data analysis. The first category seeks zones/groups of high densities whereas the second category provides an accurate image on the plane of the multidimensional data. One of convenient lethods is by combining these two categories together in a way that involves a human operator into the process of structure analysis. Recently, Kernel machines gained a success in unsupervised classification. Instead, of projecting or classifying data directly in their input space, one transforms it into a high dimensional space called feature space and then applies any traditional projection technique such as Principal Components Analysis (PCA) or any clustering method such as K-means algorithm. The logic behind kernel is to enhance those features of the input data which make distinct pattern classes separate from each other. The present thesis shows the contribution of kernel machines in unsupervised classification, particularly in projection and classification methods. It first presents traditional projection methods and then present kernel Principal Components Analysis (kPCA). Spectral classification and kernel K-means clustering algortihm. The problems of adjusting kernel parameters and estimating the number of classes are studied. More over samples on synthetic and real data are executed ; results from various presented methods are compared. These clustering approaches are finally applied for the assistance to the detection of audio events in public transport
APA, Harvard, Vancouver, ISO, and other styles
25

Bennaceur, Karim. "Théorie microscopique des noyaux exotiques légers. Modèles en couches avec couplage au continuum." Phd thesis, Université Louis Pasteur - Strasbourg I, 1999. http://tel.archives-ouvertes.fr/tel-00817911.

Full text
Abstract:
Les avancées récentes en physique nucléaire expérimentale permettent d'étudier les systèmes nucléaires a la limite de la vallée de stabilité. La découverte de nouveaux phénomènes, comme les halos et les peaux de neutrons, nécessite le développement de nouveaux outils théoriques permettant d'étudier ces systèmes. Le développement et les applications du modèle en couches avec couplages au continuum constituent la première partie de ce travail. Ce formalisme nouveau permet de prendre en compte les corrélations entre les états lies et les états de diffusion des noyaux faiblement liés. Nous l'avons applique a l'étude de la spectroscopie des noyaux miroir 8B- 8Li et 17F- 17O. Il permet également de calculer les sections efficaces de diffusion élastique, de dissociation coulombienne et de capture radiative. Nous présentons notamment les résultats concernant les réactions d'intérêt astrophysique : 16O(p,$\gamma$) 17F et 7Be(p,$\gamma$)8B. Cette dernière réaction est particulièrement importante pour la compréhension des modèles solaires car la désintégration du 8B fournit l'essentiel du flux de neutrinos solaires de haute énergie. La seconde partie de ce travail porte sur l'analyse de l'interaction d'appariement loin de la vallée de stabilité. Nous avons développé une approche, basée sur la méthode de Hartree-Fock-Bogolyubov (HFB), permettant d'étudier les corrélations d'appariement entre états liés et états de diffusion, résonnant ou non. Le potentiel particule-trou est remplacé par un potentiel dont les solutions sont connues analytiquement. Cette méthode permet d'analyser l'effet de l'appariement sur des états de particule liés ou résonnant situes à des énergies arbitraires. Nous avons ainsi pu démontrer que le continuum non résonnant peut jouer un rôle crucial dans les noyaux faiblement lies et que la résolutions des équations de HFB en base position est une des seule méthode permettant de traiter correctement ce problème.
APA, Harvard, Vancouver, ISO, and other styles
26

Essoloh, Mehdi. "Méthodes d'apprentissage à noyau pour l'estimation distribuée dans les réseaux de capteurs sans fil." Troyes, 2008. http://www.theses.fr/2009TROY0022.

Full text
Abstract:
Cette thèse propose un nouveau cadre pour des problèmes d'estimation dans les réseaux de capteurs sans fil grâce à des approches d'apprentissage statistique par méthodes à noyau. Tout en veillant au respect des contraintes en énergie et en puissance, inhérentes à toute approche en réseau de capteurs sans fil, nous avons traité le problème de localisation des capteurs du réseau grâce au formalisme des espaces de Hilbert à noyau reproduisant. Ce processus, appelé auto-localisation, est exécuté à partir de mesures de proximité inter-capteurs de diverses natures et de la position supposée connue d’une faible fraction de capteurs. En considérant ces dissimilarités inter-capteurs comme les éléments d’une matrice de Gram, nous avons proposé deux approches distribuées distinctes: l'une s'inspirant d’un algorithme de pré-image, connu pour son emploi dans des applications de dé-bruitage, l'autre reposant sur une approche de régression matricielle à noyau, récemment introduite en bioinformatique. La deuxième problématique abordée a consisté en l’estimation d’un champ de température ou de gaz dans un réseau de capteurs sans fil. Nous avons pu constater que la recherche d'une approximation parcimonieuse, permettant un contrôle efficace de l’ordre du modèle, s'accorde bien avec les contraintes algorithmiques d'un réseau de capteurs sans fil. Nous nous sommes donc inspirés d'une technique de filtrage adaptatif non-linéaire à noyau et avons démontré la pertinence de son emploi dans un problème de régression distribuée pour les réseaux de capteurs sans fil
This thesis proposes a new frame for estimation problems in wireless sensor networks thanks to learning methods built on reproducing kernels. In a first part, our work deals with the sensor network localization problem thanks to reproducing kernel Hilbert space formalism. While respecting energy constraints and limitations in computation capabilities, coordinate estimation is executed thanks to range measurements between sensors and a priori known locations of some small fraction of deployed sensors. By considering these dissimilarities as elements of a Gram matrix, we investigate two distributed approaches: one is related to the pre-image problem, widely used in denoising applications, the other one is based on a kernel matrix regression approach, recently introduced in bio-engineering. In a second part, we propose a distributed learning strategy for temperature field estimation in wireless sensor networks. We note that sparse approximation, enabling an efficient control of the order model, holds with algorithmic constraints of wireless sensor networks. Our work is based on non-linear adaptive filtering techniques with kernels and we demonstrate its relevant use for distributed regression problem in wireless sensor networks
APA, Harvard, Vancouver, ISO, and other styles
27

Dutin, Frédéric. "Spectroscopie linéaire et non-linéaire de polymères conducteurs dans le domaine térahertz." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0022.

Full text
Abstract:
Ces travaux de thèse portent sur l'étude des mécanismes de transport de charges au sein des polymères conducteurs PEDOT/PSS et PEDOT/PSTFSIK dans le domaine térahertz (THz). Ces polymères conducteurs viennent du LCPO.En premier lieu, nous avons étudié les propriétés intrinsèques de ces matériaux dans le domaine THz à partir d'une expérience de spectroscopie THz-TDS. Ceci a permis d'une part de montrer que la transmission des deux polymères est quasi-constante sur la plage de fréquences considérées et d'autre part que la conductivité intrinsèque du PEDOT/PSS est plus importante que celle du PEDOT/PSTFSIK. Ce dernier résultat a été obtenu en ajustant les données de conductivité par deux modèles de conduction bien distincts. Le premier est le modèle de Drude-Smith qui étend le modèle de Drude par l'ajout d'un coefficient de piégeage, il ne possède que peu de paramètres ajustables. Le second, le modèle de Dyre, permet de prendre en compte la structure en grains des polymères conducteurs. Il possède néanmoins un grand nombre de paramètres ajustables. Les mesures de conductivité en régime continu obtenues à partir des modèles sont en accord avec les mesures effectuées au LCPO.Nous avons ensuite caractérisé le comportement des polymères conducteurs PEDOT/PSS et PEDOT/PSTFSIK soumis à une impulsion femtoseconde centrée dans la bande bipolaronique de ces matériaux en plus de l'impulsion THz déjà présente. En utilisant les modèles de Drude-Smith et de Dyre, nous avons pu étudier le changement de conductivité induit par l'impulsion femtoseconde dans le domaine THz en supposant que les paramètres ajustables des modèles dépendent maintenant du délai entre l'impulsion femtoseconde et l'impulsion THz.Finalement, en étudiant les réponses du PEDOT/PSS et du PEDOT/PSTFSIK pour différentes intensités de pompe dans le cadre d'une expérience tout-optique où à on a pompé dans la bande bipolaronique et où on a sondé dans la bande polaronique des polymères conducteurs, on a pu échafauder un scénario plausible pour l'impact de la pompe optique dans ces matériaux
This thesis project aims to study transport mechanisms in conducting polymers PEDOT/PSS and PEDOT/PSTFSIK in the terahertz (THz) domain. These two polymers come from LCPO laboratory.First of all, we studied intrinsics properties of these materials in the THz domain with a THz-TDS experiment. This drove us to show that their transmission is quasi-constant in the THz domain and that the intrinsic conductivity is larger for PEDOT/PSS than PEDOT/PSTFSIK. This last result has been obtained by using two differents fitting models of conduction. The first model, so-called Drude-Smith model, extend the Drude model by adding a trap parameter. It also possess only few fitting parameters. The second one, the Dyre model, take into account of the grain structure of polymers. Nevertheless, it has several fitting parameters. We obtained a direct current conductivity of polymers that is in excellent agreement with LCPO measurements.Among these, we caracterized the behavior of PEDOT/PSS and PEDOT/PSTFSIK under a femtosecond pulse centered in the bipolaronic band. We also have the THz pulse. By using Drude-Smith and Dyre models, we were able to study the change of conductivity induced by the femtosecond pulse in the THz domain. In this case, we supposed that fitting parameters have to be a function of the delay between the femtosecond pulse and the THz pulse.Finally, by studying PEDOT/PSS and PEDOT/PSTFSIK responses for differents pump intensity in a full optic experiment, where we pumped on the bipolaronic band and probed on the polaronic band, we were be able to give a possible scenario for the impact of the optical pump in these materials
APA, Harvard, Vancouver, ISO, and other styles
28

Nguyen, Tien Minh. "Dynamique non linéaire des systèmes mécaniques couplés: réduction de modèle et identification." Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002994.

Full text
Abstract:
Le travail présenté dans ce mémoire est une contribution au domaine de l'analyse et de l'identification du comportement dynamique des structures non linéaires. Le premier objectif est la mise au point et la comparaison de quatre techniques de calcul des Modes Normaux Non linéaires (MNNs) : l'approche de Shaw et Pierre, l'approche de Bellizzi et Bouc, l'équilibrage harmonique et la méthode de tir. La combinaison des trois dernières méthodes avec la méthode de continuation permet de détecter les points de bifurcation et de trouver les nouvelles branches de solutions. Le deuxième objectif est l'identification des paramètres caractérisant le comportement dynamique des systèmes linéaires et non linéaires à partir des réponses libres ou des réponses au bruit ambiant. Les outils présentés sur le traitement du signal réel modulé en amplitude et en fréquence par la transformation en ondelettes continue permettent d'atteindre cet objectif. Le dernier objectif est l'extension de la méthode de sous-structuration linéaire de Craig-Bampton au cas non linéaire. Lorsque l'hypothèse de couplage faible entre les sous-structures est faite, le modèle réduit de la structure globale est obtenu par assemblage de modèles réduits de sous-structures avec interfaces de couplage fixe. Ces modèles réduits sont calculés en utilisant l'approche des MNNs de Shaw et Pierre. La robustesse et l'efficacité des méthodes présentées sont étudiées au travers d'exemples numériques ainsi que de tests réels.
APA, Harvard, Vancouver, ISO, and other styles
29

Binard, Michel. "Développement d'un modèle numérique dynamique non-linéaire de transformateur triphase de puissance." Doctoral thesis, Universite Libre de Bruxelles, 1989. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213276.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Rohart, Florian. "Prédiction phénotypique et sélection de variables en grande dimension dans les modèles linéaires et linéaires mixtes." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0027/document.

Full text
Abstract:
Les nouvelles technologies permettent l'acquisition de données génomiques et post-génomiques de grande dimension, c'est-à-dire des données pour lesquelles il y a toujours un plus grand nombre de variables mesurées que d'individus sur lesquels on les mesure. Ces données nécessitent généralement des hypothèses supplémentaires afin de pouvoir être analysées, comme une hypothèse de parcimonie pour laquelle peu de variables sont supposées influentes. C'est dans ce contexte de grande dimension que nous avons travaillé sur des données réelles issues de l’espèce porcine et de la technologie haut-débit, plus particulièrement le métabolome obtenu à partir de la spectrométrie RMN et des phénotypes mesurés post-mortem pour la plupart. L'objectif est double : d'une part la prédiction de phénotypes d’intérêt pour la production porcine et d'autre part l'explicitation de relations biologiques entre ces phénotypes et le métabolome. On montre, grâce à une analyse dans le modèle linéaire effectuée avec la méthode Lasso, que le métabolome a un pouvoir prédictif non négligeable pour certains phénotypes importants pour la production porcine comme le taux de muscle et la consommation moyenne journalière. Le deuxième objectif est traité grâce au domaine statistique de la sélection de variables. Les méthodes classiques telles que la méthode Lasso et la procédure FDR sont investiguées et de nouvelles méthodes plus performantes sont développées : nous proposons une méthode de sélection de variables en modèle linéaire basée sur des tests d'hypothèses multiples. Cette méthode possède des résultats non asymptotiques de puissance sous certaines conditions sur le signal. De part les données annexes disponibles sur les animaux telles que les lots dans lesquels ils ont évolués ou les relations de parentés qu'ils possèdent, les modèles mixtes sont considérés. Un nouvel algorithme de sélection d'effets fixes est développé et il s'avère beaucoup plus rapide que les algorithmes existants qui ont le même objectif. Grâce à sa décomposition en étapes distinctes, l’algorithme peut être combiné à toutes les méthodes de sélection de variables développées pour le modèle linéaire classique. Toutefois, les résultats de convergence dépendent de la méthode utilisée. On montre que la combinaison de cet algorithme avec la méthode de tests multiples donne de très bons résultats empiriques. Toutes ces méthodes sont appliquées au jeu de données réelles et des relations biologiques sont mises en évidence
Recent technologies have provided scientists with genomics and post-genomics high-dimensional data; there are always more variables that are measured than the number of individuals. These high dimensional datasets usually need additional assumptions in order to be analyzed, such as a sparsity condition which means that only a small subset of the variables are supposed to be relevant. In this high-dimensional context we worked on a real dataset which comes from the pig species and high-throughput biotechnologies. Metabolomic data has been measured with NMR spectroscopy and phenotypic data has been mainly obtained post-mortem. There are two objectives. On one hand, we aim at obtaining good prediction for the production phenotypes and on the other hand we want to pinpoint metabolomic data that explain the phenotype under study. Thanks to the Lasso method applied in a linear model, we show that metabolomic data has a real prediction power for some important phenotypes for livestock production, such as a lean meat percentage and the daily food consumption. The second objective is a problem of variable selection. Classic statistical tools such as the Lasso method or the FDR procedure are investigated and new powerful methods are developed. We propose a variable selection method based on multiple hypotheses testing. This procedure is designed to perform in linear models and non asymptotic results are given under a condition on the signal. Since supplemental data are available on the real dataset such as the batch or the family relationships between the animals, linear mixed models are considered. A new algorithm for fixed effects selection is developed, and this algorithm turned out to be faster than the usual ones. Thanks to its structure, it can be combined with any variable selection methods built for linear models. However, the convergence property of this algorithm depends on the method that is used. The multiple hypotheses testing procedure shows good empirical results. All the mentioned methods are applied to the real data and biological relationships are emphasized
APA, Harvard, Vancouver, ISO, and other styles
31

Azem, Leila. "Analyse des liens entre un modèle d'endommagement et un modèle de fracture." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX006/document.

Full text
Abstract:
Cette thèse est consacrée à la dérivation des modèles de fracture comme limite de modèles d'endommagement.L'étude est justifiée essentiellement à travers des simulations numériques.On s'intéresse à étudier un modèle d'endommagement initié par Allaire, Jouve et Vangoethem.Nous apportons des améliorations significatives à ce modèle justifiant la cohérence physique de cette approche.D'abord, on ajoute une contrainte sur l'épaisseur minimale de la zone endommagée, puis on ajoute la condition d'irréversibilité forte.Nous considérons en outre un modèle de fracture avec pénalisation de saut obtenu comme limite asymptotique d'un modèle d'endommagement.Nous justifions ce modèle par une étude numérique et asymptotique formelle unidimensionnelle.Ensuite, la généralisation dans le cas 2D est illustrée par des exemples numériques
This thesis is devoted to the derivation of fracture models as limit damage models.The study is justified mainly through numerical simulations.We are interested in studying a damage model initiated by Allaire, Jouve and Vangoethem.We are making significant improvements to this model justifying the physical consistency of the approach.First, we add a constraint on the minimum thickness of the damaged area and then we add a condition of strong irreversibility.We see also a fracture model with jump penalization obtained as an asymptotic limit of a damage model.We justify this model by a one-dimensional formal asymptotic numerical study.Then, the generalization in the case 2D is illustrated by numerical examples
APA, Harvard, Vancouver, ISO, and other styles
32

Vazquez, Emmanuel. "Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010199.

Full text
Abstract:
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
APA, Harvard, Vancouver, ISO, and other styles
33

Brassard, Houde Geneviève. "Détection et classification de différents types d'observations dans un modèle de régression linéaire." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/4769.

Full text
Abstract:
Le problème de la détection et de la classification de différents types d'observations est important dans les modèles de régression linéaire. En effet, pour pouvoir se fier aux données et s'assurer que celles-ci correspondent aux modèles sous-jacents utilisés lorsque nous appliquons la régression, il peut s'avérer nécéssaire de devoir les répartir en catégories. Après avoir présenté les principales méthodes et techniques utilisées dans les modèles de régression linéaire, ce mémoire propose des diagnostics qui permettent de déterminer les différentes catégories de données. Ces diagnostics sont particulièrement utiles dans tous les domaines où sont utilisés les modèles linéaires. Ceux-ci sont utilisés en physique, astronomie, biologie, chimie, médecine, géographie, sociologie, histoire, économie, linguistique, droit, etc. Finalement, ce mémoire présente en détail trois exemples portant sur des données réelles dans les domaines suivants: l'économie, la géographie et l'astronomie. Le traitement de ces exemples est fait à l'aide du logiciel R.
APA, Harvard, Vancouver, ISO, and other styles
34

Loingeville, Florence. "Modèle linéaire généralisé hiérarchique Gamma-Poisson pour le contrôle de qualité en microbiologie." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10005/document.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode d'analyse de variance pour des données discrètes issues du contrôle de qualité en microbiologie. Nous étudions tout d'abord la méthode d'analyse de variance actuellement utilisée, ses avantages, inconvénients, et limites. Nous proposons une première modélisation du problème par un modèle linéaire à deux facteurs fixes imbriqués. Nous utilisons la méthode d'analyse de déviance pour développer des tests de significativité des facteurs, qui s'avèrent efficaces sur des données d'essais interlaboratoires en microbiologie. Nous présentons ensuite une modélisation à facteurs aléatoires. Le caractère aléatoire des facteurs permet de caractériser la surdispersion des résultats de dénombrement en microbiologie, ce qui constitue l'un des objectifs principaux de ce travail. Le modèle développé correspond à un Modèle Linéaire Généralisé Hiérarchique Gamma-Poisson à trois facteurs aléatoires. Nous proposons alors une méthode d'estimation des effets fixes et aléatoires, ainsi que des paramètres de dispersion associés aux facteurs. Nous présentons des applications pratiques de cette méthode à des données d'essais interlaboratoires en microbiologie, qui prouvent l’ajustement du modèle aux données réelles. Nous proposons également une méthode de test de la significativité des facteurs, ainsi qu'une nouvelle méthode d'évaluation de la performance analytique des laboratoires participants à un essai. Nous présentons enfin une distribution presque-exacte du produit de variables aléatoires indépendantes de loi Gamma Généralisées, permettant d’effectuer des tests de détection de résultats de dénombrement aberrants
In this thesis, we propose an analysis of variance method for discrete data from quality control in microbiology. To identify the issues of this work, we start by studying the analysis of variance method currently used in microbiology, its benefits, drawbacks, and limits. We propose a first model to respond the problem, corresponding to a linear model with two nested fixed factors. We use the analyse of deviance method to develop significance tests, that proved to be efficient on data sets of proficiency testings in microbiology. We then introduce a new model involving random factors. The randomness of the factors allow to assess and to caracterize the overdispersion observed in results of counts from proficiency testings in microbiology, that is one of the main objectives of this work. The new model corresponds to a Gamma-Poisson Hierarchical Generalized Linear Model with three random factors. We propose a method based on this model to estimate dispersion parameters, fixed, and random effects. We show practical applications of this method to data sets of proficiency testings in microbiology, that prove the goodness of fit of the model to real data. We also develop significance tests of the random factors from this new model, and a new method to assess the performance of the laboratories taking part in a proficiency testing. We finally introduce a near-exact distribution for the product of independent generalized Gamma random variables, in order to characterize the intensity of the Poisson distribution of the model. This approximation, developped from a factorization of the characteristic function, is very precise and can be used to detect outliers
APA, Harvard, Vancouver, ISO, and other styles
35

Peton, Nicolas. "Étude et simulation d'un modèle stratigraphique advecto-diffusif non-linéaire avec frontières mobiles." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC058/document.

Full text
Abstract:
Retracer l’histoire d’un bassin est un préalable essentiel à toute recherche d’hydrocarbures. Pour cela, on a recours à un modèle stratigraphique, qui simule l'évolution des bassins sédimentaires sur de grandes échelles de temps (millions d'années) et d'espace (centaines de kilomètres). Le logiciel Dionisos, développé à IFPEN depuis 1992 et très apprécié par les compagnies pétrolières, permet d’effectuer ce type de calculs en prenant en compte deux grands processus physiques : (1) le transport gravitaire des sédiments dû à l’inclinaison du sol ; (2) l’écoulement de l’eau provenant des fleuves et des précipitations. Le transport gravitaire est décrit par une équation de diffusion dans laquelle le flux de sédiments dépend de la pente du sol. Initialement, cette dépendance est linéaire. Pour mieux s’approcher des observations réelles, on souhaite la rendre non-linéaire par l’intermédiaire d’un p-Laplacien. Ce changement nécessite la conception d’une nouvelle méthode de résolution numérique, qui doit offrir non seulement une grande rapidité d’exécution, mais aussi des garanties de robustesse et de précision des résultats. De plus, elle doit être compatible avec une contrainte sur le taux d’érosion présente dans le modèle. L’ajout de l’écoulement de l’eau est aussi une sophistication récente du modèle physique de Dionisos. Il se traduit par l’introduction d’une nouvelle équation aux dérivées partielles, couplée à celle du transport. Là encore, il est important d’élaborer une stratégie de résolution numérique innovante, en ce sens qu’elle doit être à la fois performante et bien adaptée au fort couplage de ces deux phénomènes. L'objectif de cette thèse est de moderniser le cœur numérique de Dionisos afin de traiter plus adéquatement les processus physiques ci-dessus. On cherche notamment à élaborer un schéma implicite par rapport à toutes les inconnues qui étend et améliore le schéma actuel. Les méthodologies retenues serviront de base à la prochaine génération du calculateur
An essential prerequisite to finding hydrocarbons is to trace back the history of a basin. To this end, geologists resort to a stratigraphic model, which simulates the evolution of sedimentary basins over large time scales (million years) and space (hundreds of kilometers). The Dionisos software, developed by IFPEN since 1992 and highly praised by oil companies, makes this type of calculation possible by accounting for two main physical processes: (1) the sediment transport due to gravity; (2) the flow of water from rivers and rains. The gravity transport is described by a diffusion equation in which the sediment flow depends on the slope of the ground. Initially, this dependence is linear. To better match experimental observations, we wish to make it nonlinear by means of a p-Laplacian. This upgrade requires to design a dedicated numerical method which should not only run fast but also provide guarantees of robustness and accuracy. In addition, it must be compatible with a constraint on the erosion rate in the present model. The water flow due to rivers and rains is also a recent enhancement brought to the physical model of Dionisos. This is achieved by introducing a new partial differential equation, coupled with that of sediment transport. Again, it is capital to work out an innovative numerical strategy, in the sense that it must be both efficient and well suited to the strong coupling of these two phenomena. The objective of this thesis is to rejuvenate the numerical schemes that lie at the heart of Dionisos in order to deal more adequately with the physical processes above. In particular, we look for an implicit scheme with respect to all the unknowns that extends and improves the current scheme. The methodologies investigated in this work will serve as a basis for the next generation of stratigraphic modelling softwares
APA, Harvard, Vancouver, ISO, and other styles
36

Azzabou, Noura. "Restauration des images naturelles et préservation de la texture à l'aide de noyaux de taille normale." Phd thesis, Ecole des Ponts ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004041.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes de restauration d'images et de préservation de textures. Cette tache nécessite un modèle image qui permet de caractériser le signal qu'on doit obtenir. Un tel model s'appuie sur la définition de l'interaction entre les pixels et qui est caractérisé par deux aspects : (i) la similarité photométrique entre les pixels (ii) la distance spatiale entre les pixels qui peut être comparée à une grandeur d'échelle. La première partie de la thèse introduit un nouveau modèle non paramétrique d'image. Ce modèle permet d'obtenir une description adaptative de l'image en utilisant des noyaux de taille variable obtenue `a partir d'une étape de classification effectuée au préalable. La deuxième partie introduit une autre approche pour décrire la dépendance entre pixels d'un point de vue géométrique. Ceci est effectué `a l'aide d'un modèle statistique de la co-occurrence entre les observations de point de vue géométrique. La dernière partie est une nouvelle technique de sélection automatique (pour chaque pixel) de la taille des noyaux utilisé au cours du filtrage. Cette thèse est conclue avec l'application de cette dernière approche dans différents contextes de filtrage ce qui montre sa flexibilité vis-à-vis des contraintes liées aux divers problèmes traités.
APA, Harvard, Vancouver, ISO, and other styles
37

Taton, Benjamin. "Modèle déformable à densité adaptative : application à la segmentation d'images." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12872.

Full text
Abstract:
Les modèles déformables sont un outil classique largement utilisé dans le contexte de l'analyse d'images. L'étude des différentes variantes décrites dans la littérature montrent qu'elles impliquent toujours un compromis entre efficacité et généricité. Si les modèles dédiés à une application particulière sont en général très efficaces et robustes, ils ne sont utilisables que dans des contextes très spécifiques et s'adaptent difficilement à des situations différentes ou inattendues. A l'inverse, les modèles entièrement génériques permettent la reconstruction d'objets de forme arbitraire mais s'accompagnent en contrepartie d'une complexité importante, directement liée à la résolution de l'image à traiter. Le travail présenté dans cette thèse vise à lever cette limitation : un modèle déformable entièrement générique existant est enrichi avec la capacité à adapter localement et automatiquement la finesse de la reconstruction en fonction de la géométrie des objets à reconstruire. De la sorte, l'effort de calcul est concentré dans les régions où il est le plus utile, et la complexité du processus de reconstruction est significativement réduite. Pour y parvenir, les zones importantes de l'image sont artificiellement dilatées en remplaçant la métrique euclidienne de l'espace image par une métrique riemannienne qui étend les distances à leur voisinage. La nouvelle métrique est construite à partir des informations disponibles dans l'image et de sorte que la finesse de l'analyse soit guidée par les caractéristiques géométriques des composantes à reconstruire. Dans cet objectif, les courbures des structures de l'image sont calculées directement à partir de l'image, à l'aide d'un nouvel estimateur précis et robuste. Cet estimateur est validé et comparé aux travaux similaires proposés dans la littérature. Enfin, les capacités du modèle décrit dans cette thèse sont illustrées par des exemples de reconstructions obtenues à partir d'images synthétiques et biomédicales.
APA, Harvard, Vancouver, ISO, and other styles
38

Godet, Fanny. "Prévision linéaire des processus à longue mémoire." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00349384.

Full text
Abstract:
Nous étudions des méthodes de prévision pour les processus à longue mémoire. Ils sont supposés stationnaires du second ordre, linéaires, causals et inversibles. Nous supposons tout d'abord que l'on connaît la loi du processus mais que l'on ne dispose que d'un nombre fini d'observations pour le prédire. Nous proposons alors deux prédicteurs linéaires : celui de Wiener-Kolmogorov tronqué et celui construit par projection sur le passé fini observé. Nous étudions leur comportement lorsque le nombre d'observations disponibles tend vers l'infini. Dans un deuxième temps nous ne supposons plus la loi du processus connue, il nous faut alors estimer les fonctions de prévision obtenues dans la première partie. Pour le prédicteur de Wiener-Kolmogorov tronqué, nous utilisons une approche paramétrique en estimant les coefficients du prédicteur grâce à l'estimateur de Whittle calculé sur une série indépendante de la série à prédire. Pour le prédicteur obtenu par projection, on estime les coefficients du prédicteur en remplaçant dans les équations de Yule-Walker les covariances par les covariances empiriques calculé sur une série indépendante ou sur la série à prédire. Pour les deux prédicteurs, on estime les erreurs quadratiques due à l'estimation des coefficients et on prouve leurs normalités asymptotiques.
APA, Harvard, Vancouver, ISO, and other styles
39

Dupont, Etienne. "Population et structure des noyaux ²¹⁰Po et ²¹²Po produits par réactions de transfert." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS429.

Full text
Abstract:
Plusieurs noyaux légers, tels que le ¹⁸O, possèdent une structure « cœur + α » . À ce jour, le ²¹²Po est le seul noyau lourd où ce phénomène a été mis en évidence. Dans cette thèse, nous avons combiné la mesure de l’énergie d’excitation des niveaux peuplés par réaction de transfert depuis un noyau de ¹²C vers un noyau de ²⁰⁸Pb, et la mesure des désexcitations γ de ces niveaux.Une première expérience a été menée en cinématique inverse à l’aide du multi-détecteur germanium AGATA et d’un silicium épais. Une seconde expérience, en cinématique directe, a eu lieu auprès du tandem de Tokai avec un télescope de détecteurs silicium, et des cristaux HPGe et LaBr₃. Nous décrivons le fonctionnement des détecteurs, le traitement des données jusqu’à la reconstruction cinématique des événements, et les simulations ayant permis de bâtir le dispositif expérimental et de valider le traitement des données.Nous avons étudié les réactions de transferts 1p, 2p, 2p 1n et α, produisant les noyaux ²⁰⁹Bi, ²¹⁰Po, ²¹¹Po et²¹²Po à des énergies autour de la barrière Coulombienne. La comparaison des différentes voies de transfert nous a permis de démontrer clairement que les quatre nucléons conduisant au ²¹²Po étaient transférés simultanément. En comparant les énergies d’excitations calculées par un modèle semi-classique, nous avons également démontré que les états du ²¹²Po ayant une forte composante cluster « cœur +α » semblent être principalement situés à haute énergie d’excitation (E ∗ ≥ 3 MeV). Sept nouveaux états du ²¹²Po pour lesquels nous avons proposé des spins et des parités ont été découverts. Nous avons également mesuré les sections efficaces vers certains niveaux connus, et comparé ces résultats avec des calculs en voies couplées, ce qui a permis de confirmer la forte composante cluster « cœur +α » des niveaux 4⁻₃ et 7⁺₂ , et une faible composante cluster « cœur +α » dans les niveaux 2⁺₁ et 2⁺₂.Cinq nouveaux états du ²¹⁰Po ont été mis en évidence. Le modèle en couches a permis d’attribuer fermement leurs spins et parités, et d’identifier leurs configurations
Several light nuclei, as ¹⁸O, display a ”core+ α” structure. ²¹²Po is the only heavy one where this phenomenon has been highlighted. In this thesis, we combined the measurement of the excitation energy of levels populated via transfer reaction from a ¹² C nucleus on a ²⁰⁸Pb nucleus, and the measurement of the γ decaying of these levels. A first experiment has been performed in inverse kinematic, using the AGATA Germanium array and a thick silicon detector. A second experiment, in direct kinematic has been done at Tokai’s Tandem using a telescope of silicon detectors, 4 HPGe and 4 LaBr₃ crystals. We describe the principle of these detectors, the datareduction up to the kinematical reconstruction, and the simulations used to build the experimental set-up and to validate the data analysis. We have studied 1p, 2p, 2p 1n and α transfer reactions leading to ²⁰⁹Bi, ²¹⁰Po, ²¹¹Po and ²¹²Po at energies around the Coulomb barrier.From the comparison of these reactions channels, we firmly established that the 4 nucleons are transfered simultaneously to produce ²¹²Po. Evolution of the excitation energy with the beam energy has shown that the 212Po states including a strong ”core + α” component lie much preferentially at high excitation energy (E∗ ≥ 3 MeV).Seven new energy levels of ²¹² Po have been discovered, for which spin and parity attributions are proposed. We also measured the partial cross-sections to several levels to characterize their cluster components. We confirmed the large ”core + α” components of the 4⁻₃ and 7⁺₂ and 7+2 states, and the weak ”core + α” components of the 2⁺₁ and 2⁺₂ states.Five new levels of ²¹⁰Po have been discovered. Shell model calculations allowed us to frimly assign spins and parities
APA, Harvard, Vancouver, ISO, and other styles
40

Harbour, Louis. "Multi-skyrmions quasi-BPS et noyaux atomiques : énergie de Coulomb et configurations pleines." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29536/29536.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Piet-Lahanier, Hélène. "Estimation de paramètres pour des modèles à erreur bornée." Paris 11, 1987. http://www.theses.fr/1987PA112203.

Full text
Abstract:
De nouvelles méthodes sont présentées pour estimer les paramètres d'un modèle et l'incertitude avec laquelle ils sont connus lorsque les données dont on dispose sont en nombre faible et que les connaissances statistiques disponibles concernant le bruit sont très limitées. Le bruit est caractérisé en précisant la plus grande et la plus petite valeur crédibles pour chacune de ses réalisations. Ceci permet d'associer à chaque donnée un intervalle dénommé barre objet et de définir dans l'espace des paramètres un ensemble (dénommé ensemble de vraisemblance) de points compatibles avec ces barres et la structure du modèle. Ce type d'approche est connue dans la littérature sous le nom générique de "Membership est estimation" et différentes techniques ont été décrites pour caractériser l'ensemble de vraisemblance. La plupart déterminent en fait un ensemble de forme simple contenant S et sont limitées à l'étude des modèles linéaires en leurs paramètres. Deux méthodes sont proposées pour caractériser S, l'une lorsque les sorties modèles dépendent linéairement des paramètres, l'autre dans le cas non linéaire. Dans le cas linéaire, l'ensemble de vraisemblance est un polyèdre convexe dont on détermine une représentation paramétrique exacte en fonction de ses sommets. Cette représentation peut être ensuite utilisée pour déterminer une commande robuste ou pour optimiser un critère quelconque sur S. La prise en compte des mesures est récursive, autorisant une mise en œuvre en ligne. Dans le cas non linéaire, un critère est défini qui est le pourcentage des barres objet avec lesquelles la sortie du modèle est compatible. L'ensemble de vraisemblance correspond au domaine correspondant à la valeur optimale de ce critère. Il est caractérisé en déterminant des points de sa frontière par recherche aléatoire dans l'espace des paramètres. L'estimateur associé à ce critère présente d'intéressantes propriétés de robustesse. Les deux méthodes sont appliquées à des exemples simulés ou réels, recouvrant des domaines aussi divers que la pharmacocinétique, le génie chimique et le traitement d'images.
APA, Harvard, Vancouver, ISO, and other styles
42

M'Garrech, Slah. "Utilisation de faisceaux d'électrons pour la production des noyaux radioactifs par photo-fission." Phd thesis, Université Paris Sud - Paris XI, 2004. http://tel.archives-ouvertes.fr/tel-00007094.

Full text
Abstract:
Le thème central de cette thèse est l'étude de la faisceaulogie de l'accélérateur ALTO et des lignes de transport associées. La première partie présente l'étude effectuée sur l'injecteur. Les simulations faites à l'aide du code de calcul PARMELA, ont permis l'optimisation des caractéristiques du pré-groupeur afin d'obtenir un bon groupement à l'entrée du groupeur et á l'entrée de la section accélératrice en fonction de la distance qui les sépare. La deuxiéme partie de cette thèse a porté sur les mesures de l'émittance transverse du faisceau à la sortie du groupeur. La méthode choisie est celle de trois gradients et le système optique utilisé est un solénoide. Les résultats obtenus s'avèrent en bon accord avec des mesures antérieures. Enfin un calcul de la ligne optique a été réalisé afin d'optimiser le transport du faisceau jusqu'à la cible PARRNe sans dégrader ses caractéristiques. Les codes de calcul utilisés sont BETA et TRACE-WIN.
APA, Harvard, Vancouver, ISO, and other styles
43

Badji, Boualem. "Caractérisation du comportement non linéaire en dynamique du véhicule." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2009. http://tel.archives-ouvertes.fr/tel-00606485.

Full text
Abstract:
En industrie automobile la créativité et l'innovation technologique sont les principaux atouts de développement et croissance économique. Le potentiel des constructeurs à innover et à rester compétitive font que la concurrence soit intense et durable. Ces évolutions technologiques des moyens de conception ont permit l'émergence de solutions orientées vers un perfectionnement continu du confort et de la sécurité active. Concevoir de tels systèmes requière une bonne connaissance du comportement du véhicule. Ceci peut être fait par une modélisation rigoureuse des différents organes afin de constituer un modèle dont la représentativité soit la plus proche possible du véhicule réel. A ce jour, il existe une multitude de modèles analytiques généralement issus d'une linéarisation individuelle du comportement de chaque composante du véhicule (surtout au niveau le comportement du pneumatique) autour d'une gamme d'excitation définie, comme le modèle bicyclette linéaire ou le modèle linéaire 4 roues. La maniabilité et la simplicité des méthodes d'analyses linéaires font que ces modèles soient largement utilisés dans l'industrie automobile pour l'analyse des réponses du véhicule. Cependant, ces modèles linéarisés sont très limités en termes de domaine de validité. En effet, pour les grandes sollicitations, le véhicule est généralement soumis à de fortes accélérations latérales (supérieurs à ) qui provoquent un fonctionnement non linéaire saturé des pneumatiques. Dans ce cas les modèles non linéaires deviennent obsolètes et ne permettent pas de prédire correctement les réponses d'un véhicule. Afin d'obtenir des modèles représentative dans le domaine non linéaire, l'approche principale est de considérer la totalité du modèle de pneumatique dans le modèle du véhicule à savoir la formule de Pacejka. De cette procédure résulte un modèle non linéaire complexe dont la résolution analytique pour extraire les caractéristiques des réponses est quasi-impossible. Dans ce cas la résolution numérique reste préférable. Afin d'éviter l'utilisation de la formule de Pacejka nous proposons d'utiliser un modèle bicyclette non linéaire basé sur une approximation polynomiale. L'idée principale est l'utilisation de méthodes non linéaires avancées dans le but d'obtenir les caractéristiques statiques et dynamiques des réponses du véhicule. Notre travail est orienté principalement dans l'analyse des non linéarités causées par de forts glissements latéraux des pneumatiques. Trois méthodes ont été retenues : La première est la méthode des séries des séries de Volterra et qui permet d'étudier l'impact des non linéarités sur les réponses d'un système dans le domaine temporel et fréquentiel. La deuxième méthode est l'équilibrage harmonique qui permet de déterminer analytiquement les fonctions réponses fréquentielles et des paramètres modaux non linéaires et leurs dépendances à l'amplitude d'excitation. La dernière technique est la méthode de Krylov-Bogoliubov qui permet l'analyse des réponses transitoire harmonique du véhicule pour excitations sinusoïdales. A l'issu de notre travail de recherche, nous avons réussi à répondre aux besoins de la problématique et nous avons abouti à des résultats innovants et très concluants concernant la dynamique non linéaire du véhicule. Ces résultats n'ont jamais été obtenus auparavant et ont donné lieu à deux publications internationales. Une première publication dans le journal de la dynamique de véhicule et une deuxième publication au congrès international de la dynamique de véhicule de la SIA (Société des Ingénieurs de l'Automobiles) à Lyon.
APA, Harvard, Vancouver, ISO, and other styles
44

Bettencourt, Maria Joaquina de. "Bandes rotationnelles dans les noyaux impairs ²³³U et ²³⁵U." Paris 11, 1985. http://www.theses.fr/1985PA112160.

Full text
Abstract:
La structure nucléaire jusqu’à des états de haut spin des noyaux bien déformés d’Uranium de masse 233 et 235 a été étudiée expérimentalement puis confrontée aux résultats des calculs effectués avec un modèle rotor-plus-quasiparticule dont les fonctions d’onde individuelles sont obtenues par un calcul HF + BCS à partir de l’interaction nucléon-nucléon de Skyrme III. L’utilisation de l’excitation coulombienne par des projectiles lourds ainsi que la décroissance radioactive de ²³³Pa à l’aide des techniques les plus récentes de spectrométrie ont permis d’étudier onze bandes dans ²³³U dont quatre nouvellement observées et également onze bandes dans ²³⁵U dont une nouvellement observée. Pour ce dernier noyau, la bande fondamentale a été prolongée jusqu’au spin 47/2 et les autres bandes jusqu’à des spins entre 19/2 et 25/2. Les principales connexions entre les bandes ont été mises en évidence afin de faire ressortir les mélanges de Coriolis les plus importants et les modes de vibration. Le comportement de ces bandes de rotation (énergie du niveau de base et moment d’inertie) a été comparé à celui des bandes de rotation des isotopes et isotones impairs les plus proches. Le très bon accord des résultats théoriques et expérimentaux, en particulier du point de vue de l’énergie des niveaux de base, des moments multipolaires magnétique et électrique des états fondamentaux, des probabilités de transition et du comportement des moments d’inertie des bandes de rotation en fonction de spin indique la très grande fiabilité des fonctions d’onde individuelles
The nuclear structure of the well deformed uranium nuclei of mass 233 and 235 has been studied experimentally up to high-spin states and compared with rotor-plus-quasiparticle-model predictions where the individual wave-functions are obtained through a HF + BCS calculation using a Skyrme III nucleon-nucleon interaction. The heavy-ion coulomb excitation experiments and the radioactive decay study of ²³³Pa have allowed to characterize eleven bands in ²³³U, four of which are newly evidenced, and also eleven bands, of which one new, in ²³⁵U. In this last case, the ground-state band was developed up to spin 47/2, and the other bands were extended up to spins between 19/2 and 25/2. The main interband connexions have been determined showing evidence for most of the Coriolis mixings and for vibrational modes. The behaviour of the rotational bands (band-head energy and moment of inertia) have been compared to the one of rotational bands of near-lying odd isotopes and isotones. A very good agreement shows up between theoretical and experimental values, more precisely as concerning the band-head energies, the ground-state magnetic and electric multipole moments, the transition probabilities and the behaviour of the rotational band moments of inertia as function of the spin. These facts show the reliability of the individual wave­functions used
APA, Harvard, Vancouver, ISO, and other styles
45

Rossi, Vivien. "Filtrage non linéaire par convolution de particule. Application à un procédé de dépollution biologique." Phd thesis, Ecole nationale superieure agronomique de montpellier - AGRO M, 2004. http://tel.archives-ouvertes.fr/tel-00008459.

Full text
Abstract:
Cette thèse considère le problème du filtrage non linéaire, c'est à dire l'estimation au cours du temps de l'état, indirectement observé, d'un système dynamique non linéaire. Ce type de problématique concerne une large gamme de modèles relatifs à divers domaines scientifiques.
Une approche originale utilisant les noyaux de convolution et des simulations d'un grand nombre de variables aléatoires est développée. Le cas des modèles contenant des paramètres inconnus à estimer est aussi traité. Des propriétés théoriques de convergence sont établies pour ces nouvelles approches.
Afin de compléter l'étude de nos techniques, des comparaisons avec les méthodes traditionnelles, notamment avec les différents filtres particulaires, sont réalisées en simulation.
Puis nos nouvelles approches sont appliquées sur un problème réel, un bioréacteur de retraitement d'eaux usées. Les performances obtenues, sur données réelles, permettent d'apprécier la robustesse de la méthode par rapport aux erreurs de modèles et aux données de mauvaises qualités.
APA, Harvard, Vancouver, ISO, and other styles
46

Slama, Tahar. "Contribution à la commande prédictive basée sur un modèle pour les systèmes de télé-opération bilatérale." Orléans, 2007. http://www.theses.fr/2007ORLE2059.

Full text
Abstract:
Ce travail de thèse a permis de développer une approche originale de commande pour les systèmes de télé-opération bilatérale maître-esclave. Cette stratégie de commande bilatérale est basée sur une combinaison judicieuse de l’ingénierie de la commande prédictive et du concept de platitude. Une telle approche est principalement caractérisée par sa capacité de prendre en compte explicitement le retour d’effort pour garantir un meilleur compromis entre la stabilité du système de commande et sa transparence. Deux problèmes de commande ont été traités pour mieux appréhender les performances en poursuite de la commande prédictive bilatérale proposée et sa capacité de recouvrir les bonnes propriétés de robustesse de la régulation prédictive. Le premier problème concerne le cas des systèmes linéaires. Des résultats fondamentaux de robustesse par rapport aux retards de transmission ont été obtenus et une attention particulière est réservée à la spécification des paramètres de synthèse, en l’occurrence les dynamiques de prédiction, et à l’étude du dilemme stabilité-transparence du système de commande global. Le second problème concerne le cas d’un système esclave opérant dans un environnement non linéaire. La conception du système de commande est faite en deux étapes. La première étape est une synthèse d’un système de commande en boucle ouverte effectuée conformément au concept de platitude. Ce système de commande en boucle ouverte permet au système esclave de suivre la trajectoire du système maître en réalisant une compensation adéquate des forces de contact entre le robot esclave et son environnement extérieur. La seconde étape est une synthèse d’un système de commande prédictive bilatérale dans le but de réaliser une stabilisation robuste du système esclave autour de sa trajectoire désirée. Ceci requiert une extension adéquate de la commande prédictive via une sortie plate au cas où la trajectoire de référence n’est pas connue a priori. En effet, la trajectoire de référence est affectée par la présence du retour d’effort. Quant au problème de minimisation, il est résolu par une prise en compte explicite de l’aspect bilatérale dans la loi de commande. Des validations expérimentales de l’approche de commande prédictive bilatérale ont été réalisées sur des plates-formes de télé-opération bilatérale avec un réseau de communication local d’une part, et un réseau de communication entre deux stations maître et esclave respectivement situées à Bourges et Vicenza d’autre part. L’utilisation de l’Internet comme réseau de communication a particulièrement permis de mettre en évidence la problématique des retards variables et aléatoires. Les résultats de robustesse en stabilité, de performances en poursuite et de transparence obtenus en simulation ont été validés en temps réel aussi bien dans le cas linéaire que dans le cas d’un environnement extérieur non linéaire. Plusieurs configurations de facteurs d’échelle ont été considérées pour montrer que les conditions de stabilité dépendent fortement de l’environnement extérieur et que la stabilité du système de commande et sa transparence constituent des propriétés antagonistes. Les résultats d’une méthode commande PID ont été données pour mieux apprécier ses limitations pour la télé-opération bilatérale.
APA, Harvard, Vancouver, ISO, and other styles
47

Mahamoud, Ayan. "Observation et diagnostic de processus industriels à modèle non linéaire : application aux machines électriques." Phd thesis, Ecole centrale de nantes - ECN, 2010. http://tel.archives-ouvertes.fr/tel-00676588.

Full text
Abstract:
Cette thèse porte sur la définition d'une stratégie robuste pour le diagnostic des processus industriels à modèle non linéaire. La stratégie définie repose sur l'utilisation d'observateurs non linéaires non seulement pour le diagnostic mais aussi pour la commande de ces systèmes. L'objectif est triple. L'observateur synthétisé devra reconstruire les variables d'état, être sensible aux défauts pour le diagnostic tout en étant robuste aux perturbations et autres incertitudes paramétriques pour la commande. Deux observateurs ont été étudiés à cet effet. Le premier observateur est un observateur de type Kalman. Cet observateur a été appliqué au diagnostic de défauts multiplicatifs pour un moteur à courant continu série. La stabilité de l'observateur pour la commande et le diagnostic a été prouvée pour deux cas de défauts paramètres multiplicatifs. Le second observateur étudié est un observateur Grand Gain. Il a été appliqué au diagnostic de défauts de courts-circuits statoriques pour une machine asynchrone. L'observateur Grand Gain synthétisé a servi au diagnostic de la machine asynchrone avec puis sans capteur mécanique. La performance des algorithmes de détection de défauts pour la machine asynchrone a été évaluée sur un benchmark spécifique " Observateur pour le Diagnostic " défini dans le cadre du groupe de travail Inter GDR CE2. Ce benchmark est implanté à l'IRCCyN.
APA, Harvard, Vancouver, ISO, and other styles
48

Missoffe, Alexia. "Réduction d'ordre de modèle d'un phénomène d'amortissement non-linéaire dans le cadre des microsystèmes." Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00552076.

Full text
Abstract:
Cette thèse traite de la réduction d'ordre de modèle du phénomène communément rencontré dans la modélisation de microsystèmes, à savoir, dans la littérature anglaise, le " squeeze-film damping ". Dans un premier chapitre sont présentées les différentes méthodes de réduction d'ordre de modèle. Dans le cas des systèmes linéaires, elles ont un cadre théorique bien établi. Ces méthodes peuvent être adaptées pour les systèmes non-linéaires. La validité des modèles réduits résultants sera alors réduite à un certain espace des phases, leur établissement faisant intervenir certaines trajectoires particulières servant d'apprentissage. On présente finalement la méthode des modes normaux non-linéaires dont les modèles résultants ne dépendent pas d'une trajectoire d'apprentissage. Au chapitre 2, on s'intéresse plus particulièrement au phénomène de " squeeze-film damping " régi par l'équation de Reynolds. Après avoir détaillé son établissement à partir de certaines hypothèses, on décrit les différentes méthodes de résolution de l'équation linéaire puis non-linéaire de la littérature. On compare ensuite les résultats d'un modèle de l'équation de Reynolds à des simulations éléments finis de l'équation de Navier-Stokes afin de valider les hypothèses faites pour la dérivation de l'équation de Reynolds. On propose ensuite une résolution originale par changement de variable. On étudie aussi plusieurs autres résolutions possibles ainsi que plusieurs bases de projection parmi celles décrites dans le premier chapitre. Le chapitre 3 est consacré à la modélisation du problème couplé que constitue le micro-interrupteur MEMS qui est un candidat au remplacement des interrupteurs à base de transistors dans les communications RF. Sa modélisation fait intervenir trois domaines, la mécanique, l'électrostatique, et la fluidique à travers l'équation de Reynolds. Après voir décrit les différents modèles de la littérature, on propose un modèle réduit couplé dont le modèle fluidique est basé sur le modèle établi au chapitre 2. Ce modèle est validé par rapport à des modèles différences finies et à des résultats expérimentaux de la littérature.Enfin le quatrième chapitre traite de la réduction du coût d'évaluation du modèle réduit couplé de micro-interrupteur du chapitre 3. La première méthode proposée consiste à trouver une fonction d'approximation de la projection de la force fluidique sur le premier mode mécanique, fonction des coordonnées modales mécaniques position et vitesse. Cette méthode ne se révèle valable que dans le cas incompressible. Dans le cas compressible, la résolution de l'équation de Reynolds restant obligatoire, on utilise la méthode de Rewienski et al. qui consiste à linéariser par morceaux les fonctions régissant la dynamique. Une autre méthode de linéarisation par morceaux, tirant parti d'une particularité du modèle du chapitre 2 et permettant de s'affranchir d'une trajectoire d'apprentissage, est également proposée.
APA, Harvard, Vancouver, ISO, and other styles
49

Allard, Catherine. "Le modèle linéaire à effets mixtes pour analyser des données génétiques provenant de familles." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6753.

Full text
Abstract:
Nous désirons savoir quelles sont les variations génétiques qui sont associées à une tension artérielle élevée. Pour ce faire, nous avons des données provenant de plusieurs familles, c’est-à-dire qu’il y a des personnes de la même famille qui se retrouvent dans cet échantillon. Dans cette base de données, il y a de l’information sur quelques caractéristiques démographique (âge, sexe, fumeur/non fumeur), il y a aussi la pression diastolique et systolique ainsi qu’un grand nombre de variations génétiques distribuées sur tout le génome. Pour pouvoir analyser des observations qui ne sont pas indépendantes, nous devons utiliser un modèle qui diffère un peu de la régression classique. En effet, nous ne pouvons pas utiliser la régression classique, car notre échantillon ne respecte pas toutes les hypothèses du modèle. Le modèle que nous allons utiliser prend en compte la covariance entre les individus de même famille. Nous allons donc présenter la théorie du modèle linéaire à effets mixtes simple ainsi que sa généralisation pour des données génétiques provenant de familles. Nous allons terminer par une application de ce modèle généralisé à notre base de données sur la tension artérielle pour déterminer quelles parties du génome (quelles variations génétiques) expliquent le mieux la tension artérielle de cet échantillon.
APA, Harvard, Vancouver, ISO, and other styles
50

Mahamoud, Mohamed Aya. "Observation et diagnostic de processus industriels à modèle non linéaire : applications aux machines électriques." Ecole centrale de Nantes, 2010. https://tel.archives-ouvertes.fr/tel-00676588.

Full text
Abstract:
Cette thèse porte sur la définition d’une stratégierobuste pour le diagnostic des processus industriels à modèle non linéaire. La stratégie définie repose sur l’utilisation d’observateurs non linéaires non seulement pour le diagnostic maisaussi pour la commande de ces systèmes. L’objectif est triple. L’observateur synthétisé devra reconstruire les variables d’état, être sensible aux défauts pour le diagnostic tout en étant robuste aux perturbations et autres incertitudes paramétriques pour la commande. Deux observateurs ont été étudiés à cet effet. Le premier observateur est un observateur de type Kalman. Cet observateur a été appliqué au diagnostic de défauts multiplicatifs pour un moteur à courant continu série. La stabilité de l’observateur pour la commande et le diagnostic a été prouvée pour deux cas de défauts paramètres multiplicatifs. Le second observateur étudié est un observateur Grand Gain. Il a été appliqué au diagnostic de défauts de courts-circuits statoriques pour une machine asynchrone. L’observateur Grand Gain synthétisé a servi au diagnostic de la machineasynchrone avec puis sans capteur mécanique
This thesis focuses on the definition of a robust strategy for the diagnosis of industrial processes with nonlinear model. The defined strategy is basedon the use of nonlinear observers not only for diagnosis but also for control of these systems. The aim is threefold. The synthesized observer willreconstruct the state variables, will be sensitive to faults for diagnosis purpose while being robust to disturbances and parametric uncertainties for control purpose. Two observers were studied for this matter. The first observer is a Kalman-like observer. This observer has been applied to detect multiplicative faults for a DC motor series. The stability of the observer for the control and the diagnosis has been proven for two cases of parameters faults. The second observer is a High Gain observer. It hasbeen applied to stator short-circuits fault diagnosis for induction machines. The High Gain observer is used for the diagnosis of induction machine, with and without mechanical sensor. The performance of fault detection algorithms for induction motor has been evaluated on a specific benchmark “Observer for the Diagnosis” defined by the working group Inter GDR CE2. This benchmark is located at IRCCyN
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography