Thèses sur le sujet « Modèle d'efficience non paramétrique »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modèle d'efficience non paramétrique.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Modèle d'efficience non paramétrique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Nacanabo, Amade. « Impact des chocs climatiques sur la sécurité alimentaire dans les pays sahéliens : approches macroéconomiques et microéconomiques ». Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL2007.

Texte intégral
Résumé :
Utilisé très souvent de façon métaphorique pour désigner les franges méridionales du Sahara, le Sahel du fait de sa position géographique est une région vulnérable au changement climatique. L’agriculture est fortement pluviale et largement dépendante des conditions climatiques. La prise en compte du changement climatique est indispensable dans la réalisation de la sécurité alimentaire au Sahel. En alliant travaux empiriques et théoriques, cette thèse se propose de contribuer à une meilleure compréhension de l’incidence du changement climatique sur la sécurité alimentaire au Sahel au niveau microéconomique et macroéconomique. Le premier chapitre examine au niveau macroéconomique, la situation de la sécurité alimentaire au Sahel, après avoir analysé son dynamisme démographique. Les résultats de ce chapitre montrent que le Sahel n’a pas encore entamé sa transition démographique. Le taux de croissance démographique est élevé par rapport à la moyenne de l’Afrique subsaharienne. La sous-alimentation est en baisse mais reste prégnante dans cette région. Réduire la sous-alimentation passe nécessairement par la production agricole, qui est tributaire des aléas climatiques. Le deuxième chapitre s’intéresse donc aux effets du changement climatique sur les rendements de certaines cultures (mil, sorgho et maïs) au Sahel. Les résultats indiquent que le changement climatique a un impact globalement négatif sur les rendements agricoles au Sahel. Cette analyse au niveau macroéconomique est ensuite complétée par deux chapitres qui, à un niveau microéconomique, se focalisent sur le comportement des agriculteurs au Sahel. Le troisième chapitre cherche ainsi à analyser l’impact des chocs climatiques mesurés par la perception des agriculteurs sur l’inefficience des parcelles agricoles. Il ressort de cette étude que les chocs climatiques augmentent l’inefficience des parcelles agricoles. A travers la baisse des rendements et l’inefficience des parcelles, le changement climatique peut affecter la pauvreté et la vulnérabilité alimentaire des ménages agricoles burkinabés. A cet effet, le quatrième chapitre identifie les déterminants individuels et contextuels de la pauvreté et la vulnérabilité alimentaire des ménages agricoles burkinabés. Les résultats relèvent qu’en plus des caractéristiques individuelles du ménage agricole comme sa taille ou le niveau d’éducation du chef du ménage, le contexte climatique de résidence permet d’expliquer sa pauvreté et vulnérabilité alimentaire
Often used metaphorically to refer to the southern fringes of the Sahara, the Sahel's geographical position makes it a region vulnerable to climate change. Agriculture is highly rain-fed and largely dependent on climatic conditions. If food security is to be achieved in the Sahel, climate change must be taken into account. By combining empirical and theoretical work, this thesis aims to contribute to a better understanding of the impact of climate change on food security in the Sahel at the microeconomic and macroeconomic levels. The first chapter examines the food security situation in the Sahel at the macroeconomic level, after analysing its demographic dynamism. The results of this chapter show that the Sahel has not yet begun its demographic transition. The demographic growth rate is high compared with the average for sub-Saharan Africa. Undernourishment is on the decline, but remains prevalent in the region. Reducing undernourishment necessarily involves agricultural production, which is dependent on the vagaries of the climate. The second chapter therefore looks at the effects of climate change on the yields of certain crops (millet, sorghum and maize) in the Sahel. The results indicate that climate change is having an overall negative impact on agricultural yields in the Sahel. This analysis at the macroeconomic level is then supplemented by two chapters which, at the microeconomic level, focus on the behaviour of farmers in the Sahel. The third chapter seeks to analyse the impact of climatic shocks, as measured by farmers' perceptions, on the inefficiency of agricultural plots. This study shows that climatic shocks increase the inefficiency of agricultural plots. Through lower yields and plot inefficiency, climate change may affect the poverty and food vulnerability of Burkinabé farming households. To this end, the fourth chapter identifies the individual and contextual determinants of poverty and food vulnerability among farming households in Burkina Faso. The results show that, in addition to the individual characteristics of farm households, such as their size or the level of education of the head of household, the climatic context in which they live helps to explain their poverty and food vulnerability
Styles APA, Harvard, Vancouver, ISO, etc.
2

Du, Rocher Martin. « Méthode de Denton et modèle non-paramétrique d'étalonnage ». Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/4831.

Texte intégral
Résumé :
À l'heure actuelle, les modèles d'étalonnages sont basés soit sur un modèle de régression ou sur le principe de préservation de mouvement. Le principe de préservation de mouvement à l'inconvénient de ne pas tenir compte de l'erreur sur les observations de basse fréquence. Les modèles de régression n'ont pas ce désavantage, mais s'avèrent difficiles à modéliser. Pour cette raison, on suppose généralement un modèle simple conduisant à un résultat similaire à celui qu'offre le principe de préservation de mouvement. L'objectif de ce mémoire est donc de généraliser l'approche basé sur le principe de préservation de mouvement à un modèle non-paramétrique qui prend en charge l'erreur des mesures de basses fréquences. Pour cette problèmatique, on considère une série annuelle et une série infra-annuelle qui est typiquement soit mensuelle ou trimestrielle. Pour ces objets, le principe de préservation de mouvement vise à trouver une nouvelle série infra-annuelle cohérente avec sa série annuelle qui soit la plus"proche" de la série infra-annuelle originale. L'approche non-paramétrique consiste alors à définir une métrique tenant compte de toutes les sources d'informations. Au point de vu théorique, cette approche est hautement similaire au problème de spline d'ajustement sur lequel on s'appuie afin de justifier les résultats théoriques.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Rivoirard, Vincent. « Estimation bayésienne non paramétrique ». Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002149.

Texte intégral
Résumé :
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Raoux, Jean-Jacques. « Modélisation non-linéaire des composants électroniques : du modèle analytique au modèle tabulaire paramétrique ». Limoges, 1995. http://www.theses.fr/1995LIMO0006.

Texte intégral
Résumé :
Le but de notre travail est la modelisation electrique des composants actifs. Nous avons envisage deux types d'approches. La premiere est une approche analytique qui necessite la mise en uvre d'une methode d'optimisation. Nous avons choisi la methode du recuit simule qui permet de simuler un processus de minimisation d'une fonction en mettant en uvre le critere de metropolis-boltzmann. La seconde approche est plus abstraite: elle consiste a determiner, a partir de tables issues des mesures, des equations respectant un certain nombre de contraintes. On obtient un modele par table. Les methodes d'interpolation ne peuvent convenir pour notre probleme car les erreurs de mesures peuvent induire des erreurs importantes sur les derivees. Nous avons donc mis au point une methode de modelisation a partir de splines d'approximation exprimees dans la base des b-splines et dont les deux principales etapes sont d'une part le developpement d'un algorithme autoadaptatif permettant d'optimiser la repartition des mesures dans l'intervalle d'etude et d'autre part une approche parametrique du probleme. L'integration du modele dans des simulateurs montre la fiabilite de celui-ci et son association au concept de circuit parametrique equivalent permet de simplifier et d'accelerer la resolution de l'equation d'equilibrage harmonique
Styles APA, Harvard, Vancouver, ISO, etc.
5

Mohdeb, Zaher. « Tests d'hypothèses linéaires dans un modèle de régression non paramétrique ». Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0003.

Texte intégral
Résumé :
Cette thèse est consacrée à la construction de tests d'hypothèses sur la fonction de régression f, d'un modèle de régression non paramétrique. Dans une première partie, on construit des tests d'hypothèses sur les coefficients de Fourier de f. De tels tests peuvent être utilisés pour comparer deux signaux bruites dans une bande donnée de fréquences. Les statistiques de test que nous utilisons, s'expriment en fonction des coefficients de Fourier empiriques de f. La deuxième partie porte sur le test de l'hypothèse f est un élément de e ou e est un espace vectoriel de dimension finie. Nous proposons deux statistiques de test $$r2 n et $$m 2 n basées sur deux approximations différentes de la distance dans l 2. La première est obtenue en estimant cette distance par la distance empirique des observations à l'espace e. La seconde est construite à l'aide des observations convenablement corrigées. Dans cette partie, nous supposons que les fonctions considérées sont holderiennes d'ordre strictement plus grand que 1/2 et nous obtenons le comportement asymptotique en loi de chacune des deux statistiques proposées. La troisième partie est une extension de la deuxième au cas où les fonctions sont Riemann-intégrables ; le comportement en loi de la statistique $$r2 n est alors sensiblement différent de celui obtenu dans la partie précédente, puisque l'on constate, dans le résultat limite, L'apparition d'un terme non négligeable. Cependant, ce terme supplémentaire est explicite et permet donc la construction de différents tests
Styles APA, Harvard, Vancouver, ISO, etc.
6

Naulet, Zacharie. « Développement d'un modèle particulaire pour la régression indirecte non paramétrique ». Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED057/document.

Texte intégral
Résumé :
Cette thèse porte sur les statistiques bayésiennes non paramétriques. La thèse est divisée en une introduction générale et trois parties traitant des aspects relativement différents des approches par mélanges (échantillonage, asymptotique, problème inverse). Dans les modèles de mélanges, le paramètre à inférer depuis les données est une fonction. On définit une distribution a priori sur un espace fonctionnel abstrait au travers d'une intégrale stochastique d'un noyau par rapport à une mesure aléatoire. Habituellement, les modèles de mélanges sont surtout utilisés dans les problèmes d'estimation de densités de probabilité. Une des contributions de ce manuscrit est d'élargir leur usage aux problèmes de régressions.Dans ce contexte, on est essentiellement concernés par les problèmes suivants:- Echantillonage de la distribution a posteriori- Propriétés asymptotiques de la distribution a posteriori- Problèmes inverses, et particulièrement l'estimation de la distribution de Wigner à partir de mesures de Tomographie Quantique Homodyne
This dissertation deals with Bayesian nonparametric statistics, in particular nonparametric mixture models. The manuscript is divided into a general introduction and three parts on rather different aspects of mixtures approaches (sampling, asymptotic, inverse problem). In mixture models, the parameter to infer from the data is a function. We set a prior distribution on an abstract space of functions through a stochastic integral of a kernel with respect to a random measure. Usually, mixture models were used primilary in probability density function estimation problems. One of the contributions of the present manuscript is to use them in regression problems.In this context, we are essentially concerned with the following problems :- Sampling of the posterior distribution- Asymptotic properties of the posterior distribution- Inverse problems, in particular the estimation of the Wigner distribution from Quantum Homodyne Tomography measurements
Styles APA, Harvard, Vancouver, ISO, etc.
7

Autin, Florent. « Point de vue maxiset en estimation non paramétrique ». Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00008542.

Texte intégral
Résumé :
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Roget-Vial, Céline. « deux contributions à l'étude semi-paramétrique d'un modèle de régression ». Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00008730.

Texte intégral
Résumé :
Cette thèse s'intéresse à deux modèles de régression semi-paramétrique permettant de contourner le problème classique du "fléau de la dimension" inhérent aux approches non-paramétriques usuelles. La première partie du travail concerne l'étude d'un modèle de régression dit partiellement linéaire ; le but est d'identifier les régresseurs qui composent la partie non-linéaire de la fonction de régression ainsi que d'estimer tous les paramètres du modèle. Pour ce faire nous définissons des quantités caractéristiques du modèle qui mesurent la linéarité des régresseurs puis nous développons un test du nombre de composantes non-linéaires basé sur cette mesure. La seconde partie porte sur l'étude d'un modèle dit à direction révélatrice unique et consiste à estimer, via des propriétés géométriques, l'axe du modèle et d'en déduire un test convergent et puissant sous une suite d'alternatives locales.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Viallon, Vivian. « Processus empiriques, estimation non paramétrique et données censurées ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00119260.

Texte intégral
Résumé :
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Dellagi, Hatem. « Estimations paramétrique et non paramétrique des données manquantes : application à l'agro-climatologie ». Paris 6, 1994. http://www.theses.fr/1994PA066546.

Texte intégral
Résumé :
Dans ce travail nous proposons deux méthodes d'estimation des données manquantes. Dans le cas de l'estimation paramétrique et afin de résoudre le problème par la prévision, nous exploitons l'estimateur décale (E. D) de la partie autorégressive d'un modèle ARMA scalaire pour estimer la matrice de covariance In dont la consistance forte est prouvée sous des conditions ayant l'avantage de s'exprimer en fonction des trajectoires et identifier les coefficients de la partie moyenne mobile et la variance du bruit blanc. En analyse des correspondances et afin d'estimer les données manquantes d'un tableau de correspondance, le problème se résout complètement dans le cas d'une seule donnée manquante. L'existence est prouvée dans le cas où il y en a plusieurs, par contre l'unicité étant délicate, une combinaison linéaire entre les données manquantes est obtenue à partir de la formule de la trace dont la minimisation assure l'homogénéité du tableau de correspondance, nous établirons sous le même critère la reconstitution d'une donnée d'origine à partir du codage linéaire par morceaux
Styles APA, Harvard, Vancouver, ISO, etc.
11

Elamine, Abdallah Bacar. « Régression non-paramétrique pour variables fonctionnelles ». Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20017.

Texte intégral
Résumé :
Cette thèse se décompose en quatre parties auxquelles s'ajoute une présentation. Dans un premier temps, on expose les outils mathématiques essentiels à la compréhension des prochains chapitres. Dans un deuxième temps, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles appartenant à un espace de Hilbert. On propose, tout d'abord, un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur de l'opérateur de régression en utilisant une décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma-variation sont posées. Dans le chapitre suivant, on reprend le travail élaboré dans le précédent chapitre en se plaçant dans le cadre de données fonctionnelles appartenant à un espace semi-normé. On établit des bornes de l'EQM de l'estimateur de l'opérateur de régression. Cette EQM peut être vue comme une fonction de la fonction de petite boule de probabilité. Dans le dernier chapitre, on s'intéresse à l'estimation de la fonction auxiliaire associée à la fonction de petite boule de probabilité. D'abord, on propose un estimateur de cette fonction auxiliare. Ensuite, on établit la convergence en moyenne quadratique et la normalité asymptotique de cet estimateur. Enfin, par des simulations, on étudie le comportement de de cet estimateur au voisinage de zéro
This thesis is divided in four sections with an additionnal presentation. In the first section, We expose the essential mathematics skills for the comprehension of the next sections. In the second section, we adress the problem of local non parametric with functional inputs. First, we propose an estimator of the unknown regression function. The construction of this estimator is related to the resolution of a linear inverse problem. Using a classical method of decomposition, we establish a bound for the mean square error (MSE). This bound depends on the small ball probability of the regressor which is assumed to belong to the class of Gamma varying functions. In the third section, we take again the work done in the preceding section by being situated in the frame of data belonging to a semi-normed space with infinite dimension. We establish bound for the MSE of the regression operator. This MSE can be seen as a function of the small ball probability function. In the last section, we interest to the estimation of the auxiliary function. Then, we establish the convergence in mean square and the asymptotic normality of the estimator. At last, by simulations, we study the bahavour of this estimator in a neighborhood of zero
Styles APA, Harvard, Vancouver, ISO, etc.
12

Agbodan, Dago. « Nomination persistante dans un modèle paramétrique : identification non-ambigue͏̈ et appariement générique d'entités topologiques ». Poitiers, 2002. http://www.theses.fr/2002POIT2313.

Texte intégral
Résumé :
Les modèles paramétriques ont une structure duale où une représentation abstraite (la spécification paramétrique) référence une représentation explicite (la géométrie). Le problème de la nomination persistante est de maintenir les références entre ces deux représentations afin de pouvoir réévaluer la seconde à partir de la première, malgré les modifications. Il s'agit d'identifier une entité dans un modèle initial puis de la retrouver dans un modèle réévalué. Nous proposons de représenter dans un graphe les évolutions des coques et faces des objets modélisés. Chaque entité référencée par la spécification est caractérisée en termes des nœuds du graphe, et d'un lien vers la géométrie courante. La mise en correspondance des graphes initial et réévalué, ainsi que leur parcours à la recherche d'éléments communs, permettent de réévaluer les références et donc de maintenir le lien entre la spécification et la géométrie dans l'objet réévalué, assurant de la sorte une nomination persistante
Parametric models have a dual structure where an abstract representation (the parametric specification) references an explicit representation (the geometry). The persistent naming problem is to maintain the references between these two representations in order to be able to reevaluate the second starting from the first, in spite of modifications. The problem is to identify an entity in an initial model, then to find it in a reevaluated model. We propose to represent evolutions of the shells and faces of the modeled objects in a graph. Each entity referenced by the specification is characterized in terms of the graph nodes, and by a link to the current geometry. Matching the initial graph and a reevaluated graph throughout a revaluation, and then, searching common elements in these graphs, allows us to interpret the references and thus to maintain the link between the parametric specification and the geometry in the reevaluated object, ensuring a persistent naming
Styles APA, Harvard, Vancouver, ISO, etc.
13

Maillou, Balbine. « Caractérisation et identification non-paramétrique des non-linéarités de suspensions de haut-parleurs ». Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA1028.

Texte intégral
Résumé :
Ce travail de thèse porte sur le comportement mécanique en basses fréquences de l'équipage mobile du haut-parleur électrodynamique, et plus spécifiquement de ses suspensions. Les propriétés des suspensions sont difficiles à identifier du fait de l'assemblage géométrique mis en oeuvre et du fait des matériaux employés, à l'origine de comportements viscoélastiques non-linéaires. En régime linéaire, le modèle de Thiele et Small permet une bonne description du comportement du haut-parleur, l'équipage mobile étant modélisé par un système masse-ressort-amortissement linéaire. En régime non-linéaire, ce modèle n'est plus suffisant et la démarche adoptée est celle de l'identification de systèmes non-linéaires, outil d'aide à la modélisation analytique. Un modèle sans a priori physique est choisi : le modèle « Hammerstein Généralisé ». Son identification requiert l'acquisition de signaux expérimentaux. Un banc de mesure a donc été élaboré et permet de caractériser l'équipage mobile découplé du moteur magnétique, lorsqu'il est soumis à un déplacement axial de grande amplitude et imposé par un pot vibrant. Le pot vibrant étant lui-même non-linéaire, une nouvelle méthode d'identification du modèle « Hammerstein Généralisé » a été développée, adaptée à la configuration de systèmes non-linéaires en série. Enfin, les paramètres d'un modèle dit de «Thiele et Small étendu» sont déduits à partir des paramètres du modèle «Hammerstein Généralisé» et permettent de mettre en évidence l'évolution de la raideur et de l'amortissement avec la fréquence d'excitation et le déplacement de la membrane, ainsi que la dépendance des phénomènes observés avec le niveau d'excitation
This thesis deals with the low frequencies mechanical behavior of the electrodynamic loudspeaker moving part, and especially with the suspensions, whose properties are among the most difficult to identify because of both assembly geometry and intrinsic materials, leading to nonlinear viscoelastic behaviors. In small signal domain, the Thiele and Small model describes the behavior of the whole loudspeaker with a good fit, the moving part behavior being modeled by a simple linear mass-spring system, with mass, damping and stiffness parameters. In large-signal domain, this model is no longer sufficient. Our approach is then to perform nonlinear system identification as a tool helping to improve analytical models. A model without physical knowledge is chosen : « Generalized Hammerstein ». Its identification requires the acquisition of experimental signals. A multi sensor experimental set up were so carried out and allows to characterize the whole moving part of a loudspeaker, without magnetic motor, attached to a rigid stand and excited with high axial displacement values, by means of a shaker. Shaker being itself a nonlinear device, a new method of « Generalized Hammerstein » model identification was developped, dedicated to nonlinear systems in series. Finally, parameters of an «expanded Thiele and Small» model are derived from the «Generalized Hammerstein» model parameters. This allows to highlight the evolution of the stiffness and damping with the frequency of excitation, with the displacement of the membrane, as well as the dependence of observed phenomena with the excitation level
Styles APA, Harvard, Vancouver, ISO, etc.
14

Sansonnet, Laure. « Inférence non-paramétrique pour des interactions poissoniennes ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00835427.

Texte intégral
Résumé :
L'objet de cette thèse est d'étudier divers problèmes de statistique non-paramétrique dans le cadre d'un modèle d'interactions poissoniennes. De tels modèles sont, par exemple, utilisés en neurosciences pour analyser les interactions entre deux neurones au travers leur émission de potentiels d'action au cours de l'enregistrement de l'activité cérébrale ou encore en génomique pour étudier les distances favorisées ou évitées entre deux motifs le long du génome. Dans ce cadre, nous introduisons une fonction dite de reproduction qui permet de quantifier les positions préférentielles des motifs et qui peut être modélisée par l'intensité d'un processus de Poisson. Dans un premier temps, nous nous intéressons à l'estimation de cette fonction que l'on suppose très localisée. Nous proposons une procédure d'estimation adaptative par seuillage de coefficients d'ondelettes qui est optimale des points de vue oracle et minimax. Des simulations et une application en génomique sur des données réelles provenant de la bactérie E. coli nous permettent de montrer le bon comportement pratique de notre procédure. Puis, nous traitons les problèmes de test associés qui consistent à tester la nullité de la fonction de reproduction. Pour cela, nous construisons une procédure de test optimale du point de vue minimax sur des espaces de Besov faibles, qui a également montré ses performances du point de vue pratique. Enfin, nous prolongeons ces travaux par l'étude d'une version discrète en grande dimension du modèle précédent en proposant une procédure adaptative de type Lasso.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Sodjo, Jessica. « Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées ». Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0152/document.

Texte intégral
Résumé :
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image
This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation
Styles APA, Harvard, Vancouver, ISO, etc.
16

Taupin, Marie-Luce. « Estimation semi-paramétrique pour le modèle de régression non linéaire avec erreurs sur les variables ». Paris 11, 1998. http://www.theses.fr/1998PA112004.

Texte intégral
Résumé :
Dans un modele de regression non lineaire avec erreurs sur les variables, on suppose les variables explicatives sont des variables aleatoires reelles independantes, de densite inconnue, qui sont observees a une erreur additive independantes et gaussienne pres. La fonction de regression est connue a une parametre fini-dimensionnel pres. L'objectif est d'estimer ce parametre dans ce modele semi-parametrique. Nous procedons en deux etapes. Le chapitre 2 est consacree a l'estimation de fonctionnelles lineaires integrales d'une densite dans le modele de convolution. En particulier nous etablissons une borne inferieure du risque quadratique minimax pour l'estimation d'une densite en un point sur la classe des densites obtenues par convolution avec la densite gaussienne standard. Dans le chapitre 3, en utilisant les resultats precedents, nous proposons un critere des moindres carres modifie, base sur l'estimation d'une esperance conditionnelle dependant de la densite inconnue des variables explicatives. Nous montrons que l'estimateur obtenu par minimisation du critere ainsi construit est consistant et que sa vitesse de convergence est d'autant plus rapide que la fonction de regression admet de fortes proprietes de regularite (par rapport aux variables explicatives), et qu'elle est generalement plus lente que la vitesse parametrique n#1#/#2. Neanmoins elle est d'ordre (log n)#r/n pour un certain nombre de fonctions de regressions admettant un prolongement analytique sur le plan complexe.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Gauzère, Franck. « Approche non-paramétrique pour un modèle 3 états avec censures par intervalles : application à la dépendance ». Bordeaux 2, 2000. http://www.theses.fr/2000BOR28709.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lesquoy-de, Turckheim Élisabeth. « Tests non paramétriques et rééchantillonnage : le modèle de Cox périodique ». Paris 11, 1987. http://www.theses.fr/1987PA112474.

Texte intégral
Résumé :
Cette thèse comporte trois parties. La première est l'étude de deux tests non­ paramétriques définis par rééchantillonnage. Leur puissance est estimée de façon fortement consistante, par simulation. L'un permet de comparer deux distributions dans un dispositif en blocs 2 x 2, l'autre de tester l'indépendance de deux temps de survie censurés. La deuxième partie adapte le modèle de régression de Cox à un processus ponctuel dont l'intensité de base est périodique et les régresseurs des processus prévisibles, ergodiques et
The first part proposes two nonparametric test defined by a simulation. One compares two distributions functions in a two-by-two black design, the other tests the independence of two censored survival times. The second part is an adaptation of Cox's regression model to a counting process having a periodic underlying intensity and predictable processes as regressors. These processes are ergodic and ϕ-mixing. The underlying intensity is estimated using either an empirical distribution-type estimate or a histogram-type estimate. These two estimates are asymptotically Gaussian and equivalent, as well as the associated regression parameters estimates. Finally, the model is applied to the analysis of a feeding pattern. The third part is a. Modelling of the kinetics of drought rhizogenesis of Sinapis alba
Styles APA, Harvard, Vancouver, ISO, etc.
19

Moumouni, Kairou. « Etude et conception d'un modèle mixte sémiparamétrique stochastique pour l'analyse des données longitudinales environnementales ». Rennes 2, 2005. http://www.theses.fr/2005REN20052.

Texte intégral
Résumé :
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits. Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées. Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades
This thesis is dealing with the analysis of longitudinal data that can be encountered in environmental studies. The general approach is based on the stochastic linear mixed model, that we extend using semiparametric techniques, such as penalized cubic splines. First, estimation methods are developed for the semiparametric stochastic mixed model, and then a simulation study is performed to measure the performances of the parameter estimates. In a second part, we propose an extension of the Cook's local influence method, in order to produce a sensibility analysis of our model and detect the effect of the perturbation of the structural components of the model. Some asymptotic properties of the local influence matrix are exhibited. Finally, the proposed model is applied to two real datasets : first, the analysis of nitrate concentration measurements in different locations of a watershed ; second, the analysis of bacteriological pollution of coastal bathing waters
Styles APA, Harvard, Vancouver, ISO, etc.
20

Libengue, Dobele-kpoka Francial Giscard Baudin. « Méthode non-paramétrique des noyaux associés mixtes et applications ». Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2007/document.

Texte intégral
Résumé :
Nous présentons dans cette thèse, l'approche non-paramétrique par noyaux associés mixtes, pour les densités àsupports partiellement continus et discrets. Nous commençons par rappeler d'abord les notions essentielles d'estimationpar noyaux continus (classiques) et noyaux associés discrets. Nous donnons la définition et les caractéristiques desestimateurs à noyaux continus (classiques) puis discrets. Nous rappelons aussi les différentes techniques de choix deparamètres de lissage et nous revisitons les problèmes de supports ainsi qu'une résolution des effets de bord dans le casdiscret. Ensuite, nous détaillons la nouvelle méthode d'estimation de densités par les noyaux associés continus, lesquelsenglobent les noyaux continus (classiques). Nous définissons les noyaux associés continus et nous proposons laméthode mode-dispersion pour leur construction puis nous illustrons ceci sur les noyaux associés non-classiques de lalittérature à savoir bêta et sa version étendue, gamma et son inverse, gaussien inverse et sa réciproque le noyau dePareto ainsi que le noyau lognormal. Nous examinons par la suite les propriétés des estimateurs qui en sont issus plusprécisément le biais, la variance et les erreurs quadratiques moyennes ponctuelles et intégrées. Puis, nous proposons unalgorithme de réduction de biais que nous illustrons sur ces mêmes noyaux associés non-classiques. Des études parsimulations sont faites sur trois types d’estimateurs à noyaux lognormaux. Par ailleurs, nous étudions lescomportements asymptotiques des estimateurs de densité à noyaux associés continus. Nous montrons d'abord lesconsistances faibles et fortes ainsi que la normalité asymptotique ponctuelle. Ensuite nous présentons les résultats desconsistances faibles et fortes globales en utilisant les normes uniformes et L1. Nous illustrons ceci sur trois typesd’estimateurs à noyaux lognormaux. Par la suite, nous étudions les propriétés minimax des estimateurs à noyauxassociés continus. Nous décrivons d'abord le modèle puis nous donnons les hypothèses techniques avec lesquelles noustravaillons. Nous présentons ensuite nos résultats minimax tout en les appliquant sur les noyaux associés non-classiquesbêta, gamma et lognormal. Enfin, nous combinons les noyaux associés continus et discrets pour définir les noyauxassociés mixtes. De là, les outils d'unification d'analyses discrètes et continues sont utilisés, pour montrer les différentespropriétés des estimateurs à noyaux associés mixtes. Une application sur un modèle de mélange des lois normales et dePoisson tronquées est aussi donnée. Tout au long de ce travail, nous choisissons le paramètre de lissage uniquementavec la méthode de validation croisée par les moindres carrés
We present in this thesis, the non-parametric approach using mixed associated kernels for densities withsupports being partially continuous and discrete. We first start by recalling the essential concepts of classical continuousand discrete kernel density estimators. We give the definition and characteristics of these estimators. We also recall thevarious technical for the choice of smoothing parameters and we revisit the problems of supports as well as a resolutionof the edge effects in the discrete case. Then, we describe a new method of continuous associated kernels for estimatingdensity with bounded support, which includes the classical continuous kernel method. We define the continuousassociated kernels and we propose the mode-dispersion for their construction. Moreover, we illustrate this on the nonclassicalassociated kernels of literature namely, beta and its extended version, gamma and its inverse, inverse Gaussianand its reciprocal, the Pareto kernel and the kernel lognormal. We subsequently examine the properties of the estimatorswhich are derived, specifically, the bias, variance and the pointwise and integrated mean squared errors. Then, wepropose an algorithm for reducing bias that we illustrate on these non-classical associated kernels. Some simulationsstudies are performed on three types of estimators lognormal kernels. Also, we study the asymptotic behavior of thecontinuous associated kernel estimators for density. We first show the pointwise weak and strong consistencies as wellas the asymptotic normality. Then, we present the results of the global weak and strong consistencies using uniform andL1norms. We illustrate this on three types of lognormal kernels estimators. Subsequently, we study the minimaxproperties of the continuous associated kernel estimators. We first describe the model and we give the technicalassumptions with which we work. Then we present our results that we apply on some non-classical associated kernelsmore precisely beta, gamma and lognormal kernel estimators. Finally, we combine continuous and discrete associatedkernels for defining the mixed associated kernels. Using the tools of the unification of discrete and continuous analysis,we show the different properties of the mixed associated kernel estimators. All through this work, we choose thesmoothing parameter using the least squares cross-validation method
Styles APA, Harvard, Vancouver, ISO, etc.
21

Le, Thi Xuan Mai. « Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois ». Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0006/document.

Texte intégral
Résumé :
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance
The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
Styles APA, Harvard, Vancouver, ISO, etc.
22

Gendre, Xavier. « Estimation par sélection de modèle en régression hétéroscédastique ». Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00397608.

Texte intégral
Résumé :
Cette thèse s'inscrit dans les domaines de la statistique non-asymptotique et de la théorie statistique de la sélection de modèle. Son objet est la construction de procédures d'estimation de paramètres en régression hétéroscédastique. Ce cadre reçoit un intérêt croissant depuis plusieurs années dans de nombreux champs d'application. Les résultats présentés reposent principalement sur des inégalités de concentration et sont illustrés par des applications à des données simulées.

La première partie de cette thèse consiste dans l'étude du problème d'estimation de la moyenne et de la variance d'un vecteur gaussien à coordonnées indépendantes. Nous proposons une méthode de choix de modèle basée sur un critère de vraisemblance pénalisé. Nous validons théoriquement cette approche du point de vue non-asymptotique en prouvant des majorations de type oracle du risque de Kullback de nos estimateurs et des vitesses de convergence uniforme sur les boules de Hölder.

Un second problème que nous abordons est l'estimation de la fonction de régression dans un cadre hétéroscédastique à dépendances connues. Nous développons des procédures de sélection de modèle tant sous des hypothèses gaussiennes que sous des conditions de moment. Des inégalités oracles non-asymptotiques sont données pour nos estimateurs ainsi que des propriétés d'adaptativité. Nous appliquons en particulier ces résultats à l'estimation d'une composante dans un modèle de régression additif.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Vitse, Matthieu. « Réduction de modèle pour l'analyse paramétrique de l'endommagement dans les structures en béton armé ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN055/document.

Texte intégral
Résumé :
Ces travaux de thèse sont consacrés au développement d'un algorithme de résolution de problèmes non-linéaires pour lesquels il existe une variabilité sur certains paramètres du modèle ou du chargement définis par leur intervalle de définition. Le cadre d'étude est le projet SINAPS@, qui a pour but d'évaluer les incertitudes dans les structures de génie civil, et de quantifier leur influence sur la réponse mécanique globale d’une structure sujette à un aléa sismique. Contrairement aux approches statistiques ou probabilistes classiques, une résolution déterministique est privilégiée dans notre étude. Cependant, afin de réduire le coût de calcul de cette famille de problèmes, une approche de type réduction de modèle PGD est mise en place, pour laquelle les paramètres incertains sont considérés comme des variables supplémentaires du problème. Cette méthode est mise en place au sein de l'algorithme LATIN, qui utilise une approche itérative pour résoudre le caractère non-linéaire des équations rencontrées lors de la résolution du problème mécanique. Ces travaux présentent donc l'extension de l'algorithme classique temps-espace LATIN-PGD à des problèmes paramétriques, pour lesquels les paramètres sont considérés comme des variables additionnelles dans la définition des quantités d’intérêt, ainsi que l'application de cette méthode à un modèle endommageant avec refermeture de fissure, présentant une variabilité à la fois sur des paramètres matériaux et sur l'amplitude du chargement. La faisabilité de ce couplage est illustrée par des exemples numériques sur des structures en béton armé pour divers types de chargement cycliques (traction—compression, flexion)
This thesis is dedicated to the development of an algorithm for the resolution of nonlinear problems for which there is a variability on some of the model parameters or on the loading conditions, which are only described by their intervals of variation. This study is part of the SINAPS@ project, which aims at evaluating the uncertainties in civil engineering structures and to quantify their influence on the global mechanical response of a structure to a seismic hazard. Unlike statistical or probabilistic approaches, we rely here on a deterministic approach. However, in order to reduce the computation cost of such problems, a PGD-based reduced-order modeling approach is implemented, for which the uncertain parameters are considered as additional variables of the problem. This method was implemented into the LATIN algorithm, which uses an iterative approach to solve the nonlinear aspect of the equations of the mechanical problem. This work present the extension of the classical time-space LATIN—PGD algorithm to parametric problems for which the parameters are considered as additional variables in the definition of the quantities of interest, as well as the application of such method to a damage model with unilateral effect, highlighting a variability on both material parameters and the loading amplitude. The feasibility of such coupling is illustrated on numerical examples for reinforced concrete structures subjected to different types of cyclic loading conditions (tension—compression, bending)
Styles APA, Harvard, Vancouver, ISO, etc.
24

Lacour, Claire. « Estimation non paramétrique adaptative pour les chaînes de Markov et les chaînes de Markov cachées ». Phd thesis, Université René Descartes - Paris V, 2007. http://tel.archives-ouvertes.fr/tel-00180107.

Texte intégral
Résumé :
Dans cette thèse, on considère une chaîne de Markov $(X_i)$ à espace d'états continu que l'on suppose récurrente positive et stationnaire. L'objectif est d'estimer la densité de transition $\Pi$ définie par $\Pi(x,y)dy=P(X_{i+1}\in dy|X_i=x)$. On utilise la sélection de modèles pour construire des estimateurs adaptatifs. On se place dans le cadre minimax sur $L^2$ et l'on s'intéresse aux vitesses de convergence obtenues lorsque la densité de transition est supposée régulière. Le risque intégré de nos estimateurs est majoré grâce au contrôle de processus empiriques par une inégalité de concentration de Talagrand. Dans une première partie, on suppose que la chaîne est directement observée. Deux estimateurs différents sont présentés, l'un par quotient, l'autre minimisant un contraste moindres carrés et prenant également en compte l'anisotropie du problème. Dans une deuxième partie, on aborde le cas d'observations bruitées $Y_1,\dots, Y_{n+1}$ où $Y_i=X_i+\varepsilon_i$ avec $(\varepsilon_i)$ un bruit indépendant de la chaîne $(X_i)$. On généralise à ce cas les deux estimateurs précédents. Des simulations illustrent les performances des estimateurs.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Caouder, Nathalie. « Régression non-linéaire paramétrique : etude de méthodes pour détecter des écarts au modèle. Maquette de système expert pour l'estimation des paramètres ». Paris 7, 1993. http://www.theses.fr/1993PA077132.

Texte intégral
Résumé :
Dans de nombreux domaines d'application, les modeles de regression non-lineaire sont d'une grande utilite lors de l'ajustement d'une courbe a un lot de donnees. Le sujet principal de la these est la construction de tests d'adequation dans un modele de regression non-lineaire parametrique a erreurs independantes et variance heterogene. Les ecarts au modele concernent un mauvais choix de la fonction d'esperance des observations, ou de la fonction de variance des observations, ou les deux. Par analogie aux methodes developpees dans les modeles de regression lineaire, la demarche du praticien consiste a diagnostiquer d'eventuels ecarts au modele en examinant les graphiques des residus. Une etude asymptotique et le traitement d'exemples ne permettent pas de valider l'utilisation de ces methodes. Partant des travaux de white, zwanzig, bickel, des statistiques de test basees sur des combinaisons lineaires des carres des residus, et sur des differences entre deux estimateurs des parametres ont ete proposees. Leurs proprietes reposent sur celles des estimateurs (robustesse,. . . ), et sur les alternatives considerees. Ces alternatives traduisent que le modele est faux, sans preciser de modele(s) concurrent(s). Les resultats des simulations confirment les calculs asymptotiques et permettent d'enoncer quelques regles de diagnostic. La seconde partie de la these etudie la faisabilite d'un systeme informatique apportant aux experimentateurs l'aide methodologique necessaire pour estimer les parametres du modele. La technologie systeme expert est choisie en raison de l'evolution rapide de la connaissance statistique d'une part, et de la nature heuristique de l'expertise (difficile a representer sous forme procedurale), d'autre part. Une maquette de systeme expert est realisee et offre une aide pour le choix de la methode d'estimation et pour l'interpretation des resultats au cours de la procedure numerique du calcul de l'estimateur. La maquette est testee sur des exemples choisis dans la litterature pour les problemes qu'ils posent (forte non-linearite, grande variabilite des observations. . . ). Ce travail a permis de stocker dans un systeme informatique le savoir-faire des statisticiens et de le faire partager aux utilisateurs, non specialistes en general du domaine statistique
Styles APA, Harvard, Vancouver, ISO, etc.
26

Batou, Anas. « Identification des forces stochastiques appliquées à un système dynamique non linéaire en utilisant un modèle numérique incertain et des réponses expérimentales ». Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00472080.

Texte intégral
Résumé :
Ces travaux ont été développés dans le contexte de l'analyse vibratoire des assemblages combustibles. Ce type de structure est très complexe et a, du fait de sa géométrie, une très forte densité modale. Ainsi, afin de calculer la réponse d'une telle structure, une modélisation simplifiée est préférable. L'objectif est d'identifier des forces stochastiques induites par l'écoulement en utilisant un modèle numérique incertain et des réponses expérimentales. Pour ce problème, 4 sources d'incertitudes sont à prendre en considération : (1) Les incertitudes de modèle induites par les simplifications du modèle. (2) Les incertitudes sur les forces induites par les fluctuations statistiques de la pression turbulent. (3) Les incertitudes concernant la modélisation des forces stochastiques. (4) Les incertitudes induites par les erreurs de mesures. Les forces stochastiques ainsi identifiées sont appliquées sur le modèle simplifié stochastique pour calculer des statistiques sur les quantités d'intérêt
Styles APA, Harvard, Vancouver, ISO, etc.
27

Poilleux-Milhem, Hélène. « Test de validation adaptatif dans un modèle de régression : modélisation et estimation de l'effet d'une discontinuité du couvert végétal sur la dispersion du pollen de colza ». Paris 11, 2002. http://www.theses.fr/2002PA112297.

Texte intégral
Résumé :
L'étude de la dissémination de trans-gènes dans l'environnement constitue l'une des parties de la thèse. Plusieurs modélisations paramétriques de la fonction de dispersion de pollen ont déjà été élaborées en milieu homogène (plantes émettant du pollen marqué entourées de plantes identiques non marquées). Afin de prédire la "pollution génétique" dans des dispositifs de cultures variés, il convient de tenir compte de l'effet d'une discontinuité dans une culture ( e. G. Une route traversant un champ) sur la dispersion du pollen. Cet effet est modélisé et estimé pour deux expériences en champ sur le colza. Il correspond alors à une accélération de la dispersion du pollen qui dépend de la largeur de la discontinuité. Des méthodes graphiques de diagnostic ont permis de conclure que la modélisation par des fonctions constantes par morceaux, de la décroissance de la fonction de dispersion individuelle et de l'effet de la discontinuité, est celle ajustant au mieux les données. Avant d'utiliser les modèles paramétriques pour prédire la pollution génétique, il est indispensable de disposer d'outils de validation. Aussi nous proposons un test de validation de modèle paramétrique dans un cadre de régression non linéaire, les observations étant gaussiennes, indépendantes et de même variance. Ce test ne nécessite aucune connaissance a priori sur la fonction de régression et la variance des observations. Il généralise les tests d'hypothèses linéaires élaborés par Baraud et al (Ann. Statist. 2003, Vol. 31) au cadre non linéaire. Il est asymptotiquement de niveau α et asymptotiquement puissant sur une classe de fonctions que nous avons caractérisée. Il atteint la vitesse de séparation optimale au sens adaptatif minimax pour des classes de fonctions höldériennes, isotropes ou anisotropes. La vitesse de séparation pour des alternatives directionnelles est proche de la vitesse paramétrique. Une étude de simulation valide la procédure à distance finie
This thesis framework is the spread of genetically modified organisms in the environment. Several parametric models of the individual pollen dispersal distribution have already been proposed for homogeneous experiments (plants emitting marked pollen surrounded by the same unmarked plants). In order to predict the "genetic pollution" in an agricultural landscape, a discontinuity effect on pollen flows in a cultivated area (e. G. A road crosses a field) has to be taken into account. This effect was modelled and estimated: according to the size of the discontinuity, it may correspond to a significant acceleration of the pollen flow. Graphical diagnosis methods show that the modelling of the individual pollen dispersal distribution and of the discontinuity effect, is best fitting the data when using constant piecewise functions. Prior to using parametric models to predict genetic pollution, goodness-of-fit tools are essential. We therefore propose a goodness-of-fit test in a nonlinear Gaussian regression model, where the errors are independent and identically distributed. This test does not require any knowledge on the regression function and on the variance of the observations. It generalises the linear hypothesis tests proposed by Baraud et al (Ann. Statist. 2003, Vol. 31) to the nonlinear hypothesis. It is asymptotically of level α and a set of functions over which it is asymptotically powerful is characterized. It is rate optimal among adaptive procedures over isotropic and anisotropic Hölder classes of alternatives. It is consistent against directional alternatives that approach the null hypothesis at a rate close to the parametric rate. According to a simulation study, this test is powerful even for fixed sample sizes
Styles APA, Harvard, Vancouver, ISO, etc.
28

Verdière, Nathalie. « Identifiabilité de systèmes d'équations aux dérivées partielles semi-discrétisées et applications à l'identifiabilité paramétrique de modèles en pharmacocinétique et en pollution ». Phd thesis, Université de Technologie de Compiègne, 2005. http://tel.archives-ouvertes.fr/tel-00011838.

Texte intégral
Résumé :
Avant d'estimer les paramètres intervenant dans des systèmes dynamiques, linéaires ou non-linéaires, contrôlés ou non contrôlés, il est important d'effectuer une étude d'identifiabilité, c'est à dire si, à partir des données expérimentales, les paramètres étudiés sont uniques ou non. Plusieurs méthodes ont été développées ces dernières années, en particulier une qui est basée sur l'algèbre différentielle. Celle-ci a conduit à un algorithme utilisant le package Diffalg implémenté sous Maple et permettant de tester l'identifiabilité de systèmes d'équations différentielles. Les résultats obtenus à partir de cette étude permettent de mettre en place des méthodes numériques pour obtenir une première estimation des paramètres, ceci sans aucune connaissance à priori de leur valeur. Cette première estimation peut alors être utilisée comme point de départ d'algorithmes itératifs spécialisés dans l'étude des problèmes mal posés : la régularisation de Tikhonov.
Dans cette thèse, deux modèles non linéaires en pharmacocinétique de type Michaelis-Menten ont tout d'abord été étudiés. Ensuite, nous nous sommes intéressés à un modèle de pollution décrit par une équation aux dérivées partielles parabolique. Le terme source à identifier était modélisé par le produit de la fonction débit avec la masse de Dirac, de support la position de la source polluante. Le but du travail était de fournir une première estimation de la source polluante. Après avoir obtenu l'identifiabilité du problème continu, nous avons étudié l'identifiabilité d'un problème approché en nous appuyant sur les méthodes d'algèbre différentielle. Celui-ci a été obtenu en approchant la masse de Dirac par une fonction gaussienne et en discrétisant ensuite le système en espace. Les résultats d'identifiabilité ont été obtenus quel que soit le nombre de points de discrétisation en espace. De cette étude théorique, nous en avons déduit des algorithmes numériques donnant une première estimation des paramètres à identifier.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Coudin, Élise. « Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire ». Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Le, Corff Sylvain. « Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées ». Phd thesis, Telecom ParisTech, 2012. http://tel.archives-ouvertes.fr/tel-00773405.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées dans un cadre paramétrique et dans un cadre non paramétrique. Dans le cas paramétrique, nous imposons des contraintes sur le calcul de l'estimateur proposé : un premier volet de cette thèse est l'estimation en ligne d'un paramètre au sens du maximum de vraisemblance. Le fait d'estimer en ligne signifie que les estimations doivent être produites sans mémoriser les observations. Nous proposons une nouvelle méthode d'estimation en ligne pour les chaînes de Markov cachées basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. La consistance de l'algorithme ainsi que des vitesses de convergence en probabilité ont été prouvées. Dans le cas d'espaces d'états généraux, l'implémentation numérique de l'algorithme BOEM requiert d'introduire des méthodes de Monte Carlo séquentielles - aussi appelées méthodes particulaires - pour approcher des espérances conditionnelles sous des lois de lissage qui ne peuvent être calculées explicitement. Nous avons donc proposé une approximation Monte Carlo de l'algorithme BOEM appelée Monte Carlo BOEM. Parmi les hypothèses nécessaires à la convergence de l'algorithme Monte Carlo BOEM, un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en fonction du nombre d'observations T et du nombre de particules N est nécessaire. Par conséquent, une seconde partie de cette thèse a été consacrée à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles : l'algorithme Forward Filtering Backward Smoothing et l'algorithme Forward Filtering Backward Simulation. Ensuite, nous considérons des applications de l'algorithme Monte Carlo BOEM à des problèmes de cartographie et de localisation simultanées. Ces problèmes se posent lorsqu'un mobile se déplace dans un environnement inconnu. Il s'agit alors de localiser le mobile tout en construisant une carte de son environnement. Enfin, la dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré a été très peu étudié et nous avons donc choisi de l'aborder dans un cadre précis. Nous supposons que la chaîne (Xk) est une marche aléatoire sur un sous-espace compact de Rm dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons également que, pour tout k, Yk est une observation dans un bruit additif gaussien de f(Xk), où f est une fonction à valeurs dans Rl que nous cherchons à estimer. Le premier résultat que nous avons établi est l'identifiabilité du modèle statistique considéré. Nous avons également proposé une estimation de la fonction f et du paramètre a à partir de la log-vraisemblance par paires des observations. Nous avons prouvé la convergence en probabilité de ces estimateurs lorsque le nombre d'observations utilisées tend vers l'infini.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Koladjo, Babagnidé François. « Estimation non paramétrique du nombre d'espèces : Application à l'étude de la faune ichtyologique du bassin du fleuve Ouëmé ». Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112153.

Texte intégral
Résumé :
Ce manuscrit est structuré en deux parties. La première partie composée des chapitres 2à 4 aborde le problème d'estimation du nombre de classes dans une population avec une application en écologie. La deuxième partie, correspondant au chapitre 5,concerne la mise en oeuvre de méthodes statistiques pour analyser des données de pêche. Dans la première partie, nous considérons une population hétérogène subdiviséeen plusieurs classes. À partir d'un échantillon, les effectifs d'individus observés parclasse, encore appelés abondances, sont utilisés pour estimer le nombre total declasses dans la population. Dans la littérature consacrée à l'estimation du nombrede classes, les méthodes basées sur un mélange de distributions de Poisson semblentêtre les plus performantes (voir par exemple les travaux de Chao and Bunge (2002)dans le cadre paramétrique et celui de Wang and Lindsay (2005) dans un cadrenon paramétrique). La mise en oeuvre de ces approches sur des données réellesmet en évidence que la distribution des abondances peut être approchée par unedistribution convexe. Nous proposons une approche non paramétrique pour estimerla distribution des abondances sous contrainte de convexité. Cette contrainte définitun cadre théorique d'estimation d'une densité discrète. Le problème d'estimation dunombre de classes est donc abordé en deux volets. Nous montrons d'une part l'existenceet l'unicité d'un estimateur d'une densité discrète sous la contrainte de convexité.Sous cette contrainte, nous démontrons qu'une densité discrète s'écrit comme un mélange de densités triangulaires. À partir de l'algorithme de réduction du supportproposé par Groeneboom et al. (2008), nous proposons un algorithme exact pourestimer les proportions dans le mélange. D'autre part, la procédure d'estimationd'une densité discrète convexe nous sert de cadre pour l'estimation de la distributiontronquée en zéro des observations d'abondance. L'estimation de la loi tronquée obtenue est ensuite prolongée en zéro pour estimer la probabilité qu'une classe ne soit pasobservée. Ce prolongement en zéro est fait de façon à annuler la proportion dela première composante dans le mélange de densités triangulaires. Nousaboutissons à une estimation du nombre de classes à l'aide d'un modèle binomial ensupposant que chaque classe apparaît dans un échantillon par une épreuve deBernoulli. Nous montrons la convergence en loi de l'estimateur proposé. Sur le plan pratique, une application aux données réelles en écologie est présentée. La méthode est ensuite comparée à d'autres méthodes concurrentes à l'aide de simulations. La seconde partie présente l'analyse des données de pêche collectées dans le fleuveOuémé au Bénin. Nous proposons une démarche statistique permettant de regrouperles espèces selon leur profil temporel d'abondances, d'estimer le stock d'une espèceainsi que leur capturabilité par les engins de pêche artisanale
This manuscript is structured in two parts. The #rst part composed of Chapters 2to 4 deals with the problem of estimating the number of classes in a population withan application in ecology. The second part, corresponding to Chapter 5, concernsthe application of statistical methods to analyze fisheries data.In the first part, we consider a heterogeneous population split into several classes.From a sample, the numbers of observed individuals per class, also called abun-dances, are used to estimate the total number of classes in the population. In theliterature devoted to the number of classes estimation, methods based on a mix-ture of Poisson distributions seem to be the most effcient (see for example the workof Chao and Bunge (2002) in the parametric framework and that of Wang and Lind-say (2005) in a non-parametric framework). Applications of these approaches to realdata show that the distribution of abundances can be approximated by a convexdistribution. We propose a non-parametric approach to estimate the distribution ofabundances under the constraint of convexity. This constraint defines a theoreticalframework for estimating a discrete density. The problem of estimating the numberof classes is then tackled in two steps.We show on the one hand the existence and uniqueness of an estimator of adiscrete density under the constraint of convexity. Under this constraint, we provethat a discrete density can be written as a mixture of triangular distributions. Usingthe support reduction algorithm proposed by Groeneboom et al. (2008), we proposean exact algorithm to estimate the proportions in the mixture.On the other hand, the estimation procedure of a discrete convex density is usedto estimate the zero-truncated distribution of the observed abundance data. Thezero-truncated distribution estimate is then extended at zero to derive an estimateof the probability that a class is not observed. This extension is made so as tocancel the first component in the mixture of triangular distributions. An estimateof the total number of classes is obtained through a binomial model assuming thateach class appears in a sample by a Bernoulli trial. We show the convergence inlaw of the proposed estimator. On practical view, an application to real ecologicaldata is presented. The method is then compared to other concurrent methods usingsimulations.The second part presents the analysis of fisheries data collected on the Ouémériver in Benin. We propose a statistical approach for grouping species accordingto their temporal abundance profile, to estimate the stock of a species and theircatchability by artisanal fishing gears
Styles APA, Harvard, Vancouver, ISO, etc.
32

Dalalyan, Arnak. « Contribution à la statistique des diffusions. Estimation semiparamétrique et efficacité au second ordre.Agrégation et réduction de dimension pour le modèle de régression ». Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00192080.

Texte intégral
Résumé :
Ce texte constitue une synthèse de mes travaux de recherche menés depuis 2000 en statistique mathématique. Ces travaux s'articulent autour de 4 thèmes: la statistique non paramétrique pour les processus de diffusion, efficacité au second ordre pour l'estimation semiparamétrique, agrégation par des poids exponentiels et réduction de dimension pour la régression non paramétrique.
Le premier chapitre contient une description générale des résultats obtenus en les replaçant dans un contexte historique et en présentant les motivations qui nous ont animées pour étudier ces problèmes. J'y décris également de façon informelle les idées clés des démonstrations.

Au second chapitre, je présente les définitions principales nécessaires pour énoncer de façon rigoureuse les résultats les plus importants. Ce chapitre contient également une discussion plus formelle permettant de mettre en lumière certains aspects théoriques et pratiques de nos résultats.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Nouisri, Amine. « Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN005/document.

Texte intégral
Résumé :
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]
This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015]
Styles APA, Harvard, Vancouver, ISO, etc.
34

Antic, Julie. « Méthodes non-paramétriques en pharmacocinétique et/ou pharmacodynamie de population ». Toulouse 3, 2009. http://thesesups.ups-tlse.fr/935/.

Texte intégral
Résumé :
La thèse étudie les méthodes non-paramétriques (NP) d'estimation de la distribution des effets aléatoires d'un modèle non-linéaire à effets mixtes. L'objectif est d'évaluer l'intérêt de ces méthodes pour les analyses Pharmacocinétiques (PK) et/ou Pharmacodynamiques (PD) de population, dans l'industrie Pharmaceutique. Dans un premier temps, la thèse fait le point sur les propriétés statistiques de quatre méthodes NP importantes. De plus, elle évalue leurs performances pratiques grâce des études de simulation inspirées d'analyses PK de population. L'intérêt des méthodes NP est établi, en théorie et en pratique. Les méthodes NP sont ensuite évaluées pour l'analyse PK/PD de population d'un médicament antidiabétique. L'objectif est d'évaluer la capacité des méthodes à détecter une sous-population de patients non-répondeurs au traitement. Des études de simulation montrent que deux méthodes NP semblent plus aptes à détecter cette sous-population. La dernière partie de la thèse est consacrée à la recherche d'algorithmes stochastiques permettant d'améliorer le calcul des méthodes NP. Un algorithme de gradient stochastique perturbé est proposé
This thesis studies non-parametric (NP) methods for the estimation of random-effects' distribution in non-linear mixed effect models. The objective is to evaluate the interest of these methods for population Pharmacokinetics (PK) and/or Pharmacodynamics (PD) analyses within Pharmaceutical industry. In a first step, the thesis reviews the statistical properties of four important NP methods. Besides, their practical performances are evaluated using some simulation studies, inspired from population PK analyses. The interest of NP methods is established in theory and in practice. NP methods are then for the population PK/PD analysis of an anti-diabetic drug. The aim is to evaluate the methods abilities to detect a sub-population of nonresponder patients. Some simulation studies show that two NP methods seem more capable of detecting this sub-population. The last part of the thesis is dedicated to the research of stochastic algorithms that improve the computation of NP methods. A perturbed stochastic gradient algorithm is proposed
Styles APA, Harvard, Vancouver, ISO, etc.
35

Verdier, Ghislain. « Détection Statistique de Rupture de Modèle dans les Systèmes Dynamiques - Application à la Supervision de Procédés de Dépollution Biologique ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00221418.

Texte intégral
Résumé :
Cette thèse considère le problème de la détection de rupture de modèle dans des systèmes dynamiques complexes. L'objectif est de mettre au point des méthodes statistiques capables de détecter le plus rapidement possible un changement de paramètre dans le modèle décrivant le système, tout en gardant un faible taux de fausses alarmes. Ce type de méthode s'applique à la détection d'anomalie ou de défaillance sur de nombreux systèmes (système de navigation, contrôle de qualité...).
Les méthodes développées ici prennent en compte les caractéristiques des procédés de dépollution biologique, qui constituent l'application principale de ce travail. Ainsi, la mise au point d'une procédure, de type CUSUM, construite à partir des estimations des vraisemblances conditionnelles permet de traiter, d'une part, le cas où une partie du modèle est inconnue en utilisant une approche non paramétrique pour estimer cette partie, et d'autre part, le cas fréquemment rencontré en pratique où le système est observé indirectement. Pour ce deuxième cas, des approches de type filtrage particulaire sont utilisées.
Des résultats d'optimalité sont établies pour les approches proposées. Ces approches sont ensuite appliquées à un problème réel, un bioréacteur de retraitement des eaux usées.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Verdier, Ghislain. « Détection statistique de rupture de modèle dans les systèmes dynamiques : application à la supervision de procédés de dépollution biologique ». Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20200.

Texte intégral
Résumé :
Cette thèse considère le problème de la détection de rupture de modèle dans des systèmes dynamiques complexes. L'objectif est de mettre au point des méthodes statistiques capables de détecter le plus rapidement possible un changement de paramètre dans le modèle décrivant le système, tout en gardant un faible taux de fausses alarmes. Ce type de méthode s'applique à la détection d'anomalie ou de défaillance sur de nombreux systèmes (système de navigation, contrôle de qualité. . . ). Les méthodes développées ici prennent en compte les caractéristiques des procédés de dépollution biologique, qui constituent l'application principale de ce travail. Ainsi, la mise au point d'une procédure, de type CUSUM, construite à partir des estimations des vraisemblances conditionnelles permet de traiter, d'une part, le cas où une partie du modèle est inconnue en utilisant une approche non paramétrique pour estimer cette partie, et d'autre part, le cas fréquemment rencontré en pratique où le système est observé indirectement. Pour ce deuxième cas, des approches de type filtrage particulaire sont utilisées. Des résultats d'optimalité sont établies pour les approches proposées. Ces approches sont ensuite appliquées à un problème réel, un bioréacteur de retraitement des eaux usées
This thesis considers the problem of model change detection in complex dynamic systems. The goal is to develop statistical methods able to detect possible change of parameters in the model describing the system, while keeping a low rate of false alarms. This type of method is applied to the detection of anomaly or failure in many systems (navigation system, quality control. . . ). The methods developed take into account the characteristics of biotechnological processes, which are the main application of this work. Thus, the development of a CUSUM type procedure, based on estimation of conditional likelihoods enable to treat, first, the case where a part of the model is unknown by using a nonparametric approach to estimate this component, and second, the case frequently met in practice where the system is observed indirectly. In this second case, approaches such as particle filtering are used. Several results of optimality under classical constraints are established for the proposed approaches which are applied to a real problem, a bioreactor for wastewater treatment
Styles APA, Harvard, Vancouver, ISO, etc.
37

Bennani, Youssef. « Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare ». Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Texte intégral
Résumé :
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
Styles APA, Harvard, Vancouver, ISO, etc.
38

Jégou, Nicolas. « Régression isotonique itérée ». Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00776627.

Texte intégral
Résumé :
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d'une fonction croissante et d'une fonction décroissante, nous proposons de construire et d'étudier un nouvel estimateur combinant les techniques d'estimation des modèles additifs et celles d'estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l'algorithme backfitting. On dispose ainsià chaque itération d'un estimateur de la fonction de régression résultant de la somme d'une partiecroissante et d'une partie décroissante.Le premier chapitre propose un tour d'horizon des références relatives aux outils cités à l'instant. Le chapitre suivant est dédié à l'étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d'échantillon étant fixée, augmenter le nombre d'itérations conduit à l'interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l'égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l'estimateur.Le troisième chapitre est consacré à l'étude pratique de l'estimateur. Comme augmenter le nombre d'itérations conduit au sur-ajustement, il n'est pas souhaitable d'itérer la méthode jusqu'à la convergence. Nous examinons des règles d'arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l'algorithme à des données réelles de type puces CGH où la détection de ruptures est d'un intérêt crucial. Enfin, une application à l'estimation des fonctions unimodales et à la détection de mode(s) est proposée
Styles APA, Harvard, Vancouver, ISO, etc.
39

Nguyen, Ngoc Bien. « Adaptation via des inéqualités d'oracle dans le modèle de regression avec design aléatoire ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4716/document.

Texte intégral
Résumé :
À partir des observations Z(n) = {(Xi, Yi), i = 1, ..., n} satisfaisant Yi = f(Xi) + ζi, nous voulons reconstruire la fonction f. Nous évaluons la qualité d'estimation par deux critères : le risque Ls et le risque uniforme. Dans ces deux cas, les hypothèses imposées sur la distribution du bruit ζi serons de moment borné et de type sous-gaussien respectivement. En proposant une collection des estimateurs à noyau, nous construisons une procédure, qui est initié par Goldenshluger et Lepski, pour choisir l'estimateur dans cette collection, sans aucune condition sur f. Nous prouvons ensuite que cet estimateur satisfait une inégalité d'oracle, qui nous permet d'obtenir les estimations minimax et minimax adaptatives sur les classes de Hölder anisotropes
From the observation Z(n) = {(Xi, Yi), i = 1, ..., n} satisfying Yi = f(Xi) + ζi, we would like to approximate the function f. This problem will be considered in two cases of loss function, Ls-risk and uniform risk, where the condition imposed on the distribution of the noise ζi is of bounded moment and of type sub-gaussian, respectively. From a proposed family of kernel estimators, we construct a procedure, which is initialized by Goldenshluger and Lepski, to choose in this family a final estimator, with no any assumption imposed on f. Then, we show that this estimator satisfies an oracle inequality which implies the minimax and minimax adaptive estimation over the anisotropic Hölder classes
Styles APA, Harvard, Vancouver, ISO, etc.
40

Olivier, Clément. « Décompositions tensorielles et factorisations de calculs intensifs appliquées à l'identification de modèles de comportement non linéaire ». Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM040/document.

Texte intégral
Résumé :
Cette thèse développe une méthodologie originale et non intrusive de construction de modèles de substitution applicable à des modèles physiques multiparamétriques.La méthodologie proposée permet d’approcher en temps réel, sur l’ensemble du domaine paramétrique, de multiples quantités d’intérêt hétérogènes issues de modèles physiques.Les modèles de substitution sont basés sur des représentations en train de tenseurs obtenues lors d'une phase hors ligne de calculs intensifs.L'idée essentielle de la phase d'apprentissage est de construire simultanément les approximations en se basant sur un nombre limité de résolutions du modèle physique lancées à la volée.L'exploration parcimonieuse du domaine paramétrique couplée au format compact de train de tenseurs permet de surmonter le fléau de la dimension.L'approche est particulièrement adaptée pour traiter des modèles présentant un nombre élevé de paramètres définis sur des domaines étendus.Les résultats numériques sur des lois élasto-viscoplastiques non linéaires montrent que des modèles de substitution compacts en mémoire qui approchent précisément les différentes variables mécaniques dépendantes du temps peuvent être obtenus à des coûts modérés.L'utilisation de tels modèles exploitables en temps réel permet la conception d'outils d'aide à la décision destinés aux experts métiers dans le cadre d'études paramétriques et visent à améliorer la procédure de calibration des lois matériaux
This thesis presents a novel non-intrusive methodology to construct surrogate models of parametric physical models.The proposed methodology enables to approximate in real-time, over the entire parameter space, multiple heterogeneous quantities of interest derived from physical models.The surrogate models are based on tensor train representations built during an intensive offline computational stage.The fundamental idea of the learning stage is to construct simultaneously all tensor approximations based on a reduced number of solutions of the physical model obtained on the fly.The parsimonious exploration of the parameter space coupled with the compact tensor train representation allows to alleviate the curse of dimensionality.The approach accommodates particularly well to models involving many parameters defined over large domains.The numerical results on nonlinear elasto-viscoplastic laws show that compact surrogate models in terms of memory storage that accurately predict multiple time dependent mechanical variables can be obtained at a low computational cost.The real-time response provided by the surrogate model for any parameter value allows the implementation of decision-making tools that are particularly interesting for experts in the context of parametric studies and aim at improving the procedure of calibration of material laws
Styles APA, Harvard, Vancouver, ISO, etc.
41

Duroux, Roxane. « Inférence pour les modèles statistiques mal spécifiés, application à une étude sur les facteurs pronostiques dans le cancer du sein ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066224/document.

Texte intégral
Résumé :
Cette thèse est consacrée à l'inférence de certains modèles statistiques mal spécifiés. Chaque résultat obtenu trouve son application dans une étude sur les facteurs pronostiques dans le cancer du sein, grâce à des données collectées par l'Institut Curie. Dans un premier temps, nous nous intéressons au modèle à risques non proportionnels, et exploitons la connaissance de la survie marginale du temps de décès. Ce modèle autorise la variation dans le temps du coefficient de régression, généralisant ainsi le modèle à hasards proportionnels. Dans un deuxième temps, nous étudions un modèle à hasards non proportionnels ayant un coefficient de régression constant par morceaux. Nous proposons une méthode d'inférence pour un modèle à un unique point de rupture, et une méthode d'estimation pour un modèle à plusieurs points de rupture. Dans un troisième temps, nous étudions l'influence du sous-échantillonnage sur la performance des forêts médianes et essayons de généraliser les résultats obtenus aux forêts aléatoires de survie à travers une application. Enfin, nous présentons un travail indépendant où nous développons une nouvelle méthode de recherche de doses, dans le cadre des essais cliniques de phase I à ordre partiel
The thesis focuses on inference of statistical misspecified models. Every result finds its application in a prognostic factors study for breast cancer, thanks to the data collection of Institut Curie. We consider first non-proportional hazards models, and make use of the marginal survival of the failure time. This model allows a time-varying regression coefficient, and therefore generalizes the proportional hazards model. On a second time, we study step regression models. We propose an inference method for the changepoint of a two-step regression model, and an estimation method for a multiple-step regression model. Then, we study the influence of the subsampling rate on the performance of median forests and try to extend the results to random survival forests through an application. Finally, we present a new dose-finding method for phase I clinical trials, in case of partial ordering
Styles APA, Harvard, Vancouver, ISO, etc.
42

Khemane, Firas. « Estimation fréquentielle par modèle non entier et approche ensembliste : application à la modélisation de la dynamique du conducteur ». Thesis, Bordeaux 1, 2011. http://www.theses.fr/2010BOR14282/document.

Texte intégral
Résumé :
Les travaux de cette thèse traite de la modélisation de systèmes par fonctions de transfert non entières à partir de données fréquentielles incertaines et bornées. A cet effet, les définitions d'intégration et de dérivation non entières sont d'abord étendues aux intervalles. Puis des approches ensemblistes sont appliquées pour l'estimation de l'ensemble des coefficients et des ordres de dérivation sous la forme d'intervalles. Ces approches s'appliquent pour l'estimation des paramètres de systèmes linéaires invariants dans le temps (LTI) certains, systèmes LTI incertains et systèmes linéaires à paramètres variant dans le temps (LPV). L'estimation paramétrique par approche ensembliste est particulièrement adaptée à la modélisation de la dynamique du conducteur, car les études sur un, voire plusieurs, individus montrent que les réactions recueillies ne sont jamais identiques mais varient d'une expérience à l'autre, voire d'un individu à l'autre
This thesis deals with system identification and modeling of fractional transfer functions using bounded and uncertain frequency responses. Therefor, both of fractional differentiation and integration definitions are extended into intervals. Set membership approaches are then applied to estimate coefficients and derivative orders as intervals. These methods are applied to estimate certain Linear Time Invariant systems (LTI), uncertain LTI systems and Linear Parameter Varying systems (LPV). They are notably adopted to model driver's dynamics, since most of studies on one or several individuals shave shown that the collected reactions are not identical and are varying from an experiment to another
Styles APA, Harvard, Vancouver, ISO, etc.
43

Gayraud, Ghislaine. « Vitesses et procédures statistiques minimax dans des problèmes d'estimation et des tests d'hypothèses ». Habilitation à diriger des recherches, Université de Rouen, 2007. http://tel.archives-ouvertes.fr/tel-00207687.

Texte intégral
Résumé :
Mes travaux s'articulent autour de trois thématiques.
La première thèmatique porte sur la résolution via l'approche minimax de divers problèmes d'estimation et de tests d'hypothèses dans un cadre non-paramétrique.
En statistique Bayésienne non-paramétrique, je me suis intéressée à un problème d'estimation d'ensembles à niveau. Les résultats obtenus résultent de l'étude des propriétés asymptotiques d'estimation Bayésienne d'ensembles à niveau. Ce sont des résultats généraux au sens où la consistance et la vitesse de convergence de l'estimateur Bayésien sont établies pour une large classe de lois a priori.
La troisième thématique concerne un problème d'estimation paramétrique dans un modèle de déconvolution aveugle bruitée : il s'agit de restituer la loi du signal entrant. La consistance ainsi que la distribution asymptotique d'une nouvelle procédure d'estimation sont établies.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Celisse, Alain. « Sélection de modèle par validation-croisée en estimation de la densité, régression et détection de ruptures ». Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00346320.

Texte intégral
Résumé :
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement parmi eux, du leave-p-out. Très utilisés en pratique, ces algorithmes sont encore mal compris d'un point de vue théorique, notamment sur un plan non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal $p$ de l'ensemble test dont elle dépend. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-$p$-out n'est habituellement pas applicable en pratique, à cause d'une trop grande complexité algorithmique. Pourtant, nous parvenons à obtenir des formules closes (parfaitement calculables) de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs très employés. Nous envisageons le problème de la sélection de modèle par validation-croisée sous deux aspects. L'un repose sur l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de $p$ entièrement fondé sur les données. Une application naturelle au problème des tests multiples est envisagée. L'autre aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité de la procédure leave-$p$-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité dans le cadre de l'estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Sur cette base, nous proposons une procédure entièrement tournée vers le rééchantillonnage, permettant de traiter le cas difficile de données hétéroscédastiques avec une complexité algorithmique raisonnable.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Caron, Emmanuel. « Comportement des estimateurs des moindres carrés du modèle linéaire dans un contexte dépendant : Étude asymptotique, implémentation, exemples ». Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0036.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons au modèle de régression linéaire usuel dans le cas où les erreurs sont supposées strictement stationnaires. Nous utilisons un résultat de Hannan (1973) qui a prouvé un Théorème Limite Central pour l’estimateur des moindres carrés sous des conditions très générales sur le design et le processus des erreurs. Pour un design et un processus d’erreurs vérifiant les conditions d’Hannan, nous définissons un estimateur de la matrice de covariance asymptotique de l’estimateur des moindres carrés et nous prouvons sa consistance sous des conditions très générales. Ensuite nous montrons comment modifier les tests usuels sur le paramètre du modèle linéaire dans ce contexte dépendant. Nous proposons différentes approches pour estimer la matrice de covariance afin de corriger l’erreur de première espèce des tests. Le paquet R slm que nous avons développé contient l’ensemble de ces méthodes statistiques. Les procédures sont évaluées à travers différents ensembles de simulations et deux exemples particuliers de jeux de données sont étudiés. Enfin, dans le dernier chapitre, nous proposons une méthode non-paramétrique par pénalisation pour estimer la fonction de régression dans le cas où les erreurs sont gaussiennes et corrélées
In this thesis, we consider the usual linear regression model in the case where the error process is assumed strictly stationary.We use a result from Hannan (1973) who proved a Central Limit Theorem for the usual least squares estimator under general conditions on the design and on the error process. Whatever the design and the error process satisfying Hannan’s conditions, we define an estimator of the asymptotic covariance matrix of the least squares estimator and we prove its consistency under very mild conditions. Then we show how to modify the usual tests on the parameter of the linear model in this dependent context. We propose various methods to estimate the covariance matrix in order to correct the type I error rate of the tests. The R package slm that we have developed contains all of these statistical methods. The procedures are evaluated through different sets of simulations and two particular examples of datasets are studied. Finally, in the last chapter, we propose a non-parametric method by penalization to estimate the regression function in the case where the errors are Gaussian and correlated
Styles APA, Harvard, Vancouver, ISO, etc.
46

Qian, Jun. « Identification paramétrique en boucle fermée par une commande optimale basée sur l’analyse d’observabilité ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10113/document.

Texte intégral
Résumé :
Dans un objectif conjoint d'identification paramétrique en ligne, les méthodes développées dans cette thèse permettent de concevoir en ligne et en boucle fermée les entrées optimales qui enrichissent les informations contenues dans l'expérience en cours. Ces méthodes reposent sur des mesures en temps réel du procédé, sur un modèle dynamique non linéaire (ou linéaire) multi-variable choisi du procédé, sur un modèle de sensibilité des mesures par rapport aux paramètres à estimer et sur un observateur non linéaire. L'analyse de l'observabilité et des techniques de commande prédictive permettent de définir la commande optimale qui est déterminée en ligne par optimisation sous contraintes. Des aspects de stabilisation sont également étudiés (via un apport de contraintes fictives ou via une technique de Lyapunov). Enfin, une loi de commande explicite pour le cas particulier du système d'ordre un est développée. Des exemples illustratifs sont traités via le logiciel ODOE4OPE : un bioréacteur, un réacteur continu parfaitement agité et une aile delta. Ces exemples permettent de voir que l'estimation des paramètres peut être réalisée avec une bonne précision, et à moindre coût expérimental en une expérience
For online parameter identification, the developed methods here allow to design online and in closed loop optimal inputs that enrich the information in the current experience. These methods are based on real-time measurements of the process, on a dynamic nonlinear (or linear) multi-variable model, on a sensitivity model of measurements with respect to the parameters to be estimated and a nonlinear observer. Analysis of observability and predictive control techniques are used to define the optimal control which is determined online by constrained optimization. Stabilization aspects are also studied (by adding fictitious constraints or by a Lyapunov technique). Finally, for the particular case of a first order linear system, the explicit control law is developed. Illustrative examples are processed via the ODOE4OPE software : a bio-reactor, a continuous stirred tank reactor and a delta wing. These examples help to see that the parameter estimation can be performed with good accuracy in a single and less costly experiment
Styles APA, Harvard, Vancouver, ISO, etc.
47

Bijou, Mohammed. « Qualité de l'éducation, taille des classes et mixité sociale : Un réexamen à partir des méthodes à variables instrumentales et semi-paramétriques sur données multiniveaux - Cas du Maroc - ». Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL2004.

Texte intégral
Résumé :
L’objectif de ce travail est d’évaluer la qualité du système éducatif marocain à partir des données du programme TIMSS et PIRLS 2011. Le travail s’articule autour de trois chapitres. Il s’agit d’étudier, dans le premier chapitre, l’influence des caractéristiques individuelles de l’élève et de l’école sur les performances scolaires, ainsi que le rôle important de l'environnement scolaire (effet taille et composition sociale). Dans le deuxième chapitre, nous cherchons à estimer la taille de classe optimale qui assure une réussite généralisée de tous les élèves des deux niveaux à savoir, la 4e année primaire et la 2e année collégiale. Le troisième chapitre propose d’étudier la relation existante entre la composition sociale et économique de l’établissement et la performance scolaire, tout en démontrant le rôle de la mixité sociale dans la réussite des élèves. Pour ce faire, nous avons utilisé différentes approches économétriques, à savoir une modélisation multiniveau avec correction du problème de l’endogénéité (chapitre 1), un modèle semi-paramétrique hiérarchique dans le (chapitre 2) et un modèle semi paramétrique hiérarchique contextuel (chapitre 3). Les résultats montrent que la performance scolaire est déterminée par plusieurs facteurs intrinsèques à l'élève et également contextuels. En effet, une taille de classe moins chargée et une école à composition sociale mixte sont les deux éléments essentiels pour un environnement favorable et un apprentissage assuré pour l’ensemble des élèves. Selon nos résultats, les pouvoirs publics devraient accorder la priorité à la réduction de la taille des classes en la limitant à 27 élèves au maximum. De plus, il est nécessaire d’envisager un assouplissement de la carte scolaire afin de favoriser la mixité sociale à l’école. Les résultats obtenus permettent une meilleure compréhension du système scolaire marocain, dans son aspect qualitatif et la justification des politiques éducatives pertinentes pour améliorer la qualité du système éducatif marocain
This thesis objective is to examine the quality of the Moroccan education system exploiting the data of the programs TIMSS and PIRLS 2011.The thesis is structured around three chapters. The first chapter examines the influence of individual student and school characteristics on school performance, as well as the important role of the school environment (effect of size and social composition). In the second chapter, we seek to estimate the optimal class size that ensures widespread success for all students at both levels, namely, the fourth year of primary school and the second year of college. The third chapter proposes to study the relationship between the social and economic composition of the school and academic performance, while demonstrating the role of social mix in student success. In order to study this relationship, we mobilize different econometric approaches, by applying a multilevel model with correction for the problem of endogeneity (chapter 1), a hierarchical semi-parametric model (chapter 2) and a contextual hierarchical semi-parametric model (chapter 3). The results show that academic performance is determined by several factors that are intrinsic to the student and also contextual. Indeed, a smaller class size and a school with a mixed social composition are the two essential elements for a favourable environment and assured learning for all students. According to our results, governments should give priority to reducing class size by limiting it to a maximum of 27 students. In addition, it is necessary to consider making the school map more flexible in order to promote social mixing at school. The results obtained allow a better understanding of the Moroccan school system, in its qualitative aspect and the justification of relevant educational policies to improve the quality of the Moroccan education system
Styles APA, Harvard, Vancouver, ISO, etc.
48

Porcher, Raphaël. « Éstimation d'invariants dynamiques (exposants de Lyapunov) pour des systèmes dynamiques stochastiques ». Paris 6, 2002. http://www.theses.fr/2002PA066301.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
49

Essid, Hédi. « L'induction statistique dans le modèle DEA avec inputs quasi-fixes : développements théoriques et une application au secteur de l'éducation tunisien ». Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50374-2007-Essid.pdf.

Texte intégral
Résumé :
L'objet de notre thèse est l'analyse de l'efficacité et de la productivité des organisations dans un contexte multivarié. En particulier, notre thèse s'inscrit dans la lignée des travaux qui cherchent à développer les assises statistiques des estimateurs non paramétriques des frontières d'efficacité de type Data Envelopment Analysis (DEA). Ainsi, nous nous intéressons aux propriétés statistiques de cet estimateur, notamment celles de la convergence et du biais. D'autant plus, la distribution d'échantillonnage pour cet estimateur fait aussi l'objet de notre étude ; et ce afin d'utiliser les techniques de l'inférence statistique dans l'analyse de l'efficacité et de la productivité. Dans notre analyse, nous distinguons entre les inputs contrôlables et les inputs quasi-fixes ou non discrétionnaires. Ces derniers entrent désormais, dans le processus de production de l'organisation sans être pourtant sous son contrôle. Pour mener notre étude, nous définissons un modèle statistique permettant la caractérisation du Processus Générateur des Données (PGD) ; et nous utilisons la méthode du noyau pour construire un estimateur convergent de ce processus. En se basant sur cet estimateur, nous utilisons la méthodologie bootstrap pour corriger le biais des estimateurs des scores d'efficacité, construire des intervalles de confiance et développer un problème de test d'hypothèses statistiques concernant la nature des rendements d'échelle des organisations. Nous étudions ensuite la variation de l'efficacité dans un modèle complet de variation de la productivité. Cette étude est menée en utilisant l'indice de productivité de Malmquist. Ce dernier est estimé par la méthode DEA avec inputs quasi-fixes. Pour évaluer la précision statistique des estimateurs, nous définissons un modèle statistique intertemporel permettant la caractérisation du Processus Générateur des Données Intertemporel (PGDI) ; et d'utiliser ainsi la méthodologie bootstrap pour corriger le biais des estimateurs et construire des intervalles de confiance pour l'indice de Malmquist ainsi que pour ses composantes. Enfin, nous appliquons notre analyse au secteur de l'éducation tunisien. Par cela, nous visons en premier lieu, le développement d'une mesure de l'efficacité de l'éducation dont nous pouvons étudier sa significativité statistique. En second lieu, nous voulons vérifier si la variation de la productivité dans le secteur de l'éducation est réelle ou plutôt perverse.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Lehéricy, Luc. « Estimation adaptative pour les modèles de Markov cachés non paramétriques ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS550/document.

Texte intégral
Résumé :
Dans cette thèse, j'étudie les propriétés théoriques des modèles de Markov cachés non paramétriques. Le choix de modèles non paramétriques permet d'éviter les pertes de performance liées à un mauvais choix de paramétrisation, d'où un récent intérêt dans les applications. Dans une première partie, je m'intéresse à l'estimation du nombre d'états cachés. J'y introduis deux estimateurs consistants : le premier fondé sur un critère des moindres carrés pénalisés, le second sur une méthode spectrale. Une fois l'ordre connu, il est possible d'estimer les autres paramètres. Dans une deuxième partie, je considère deux estimateurs adaptatifs des lois d'émission, c'est-à-dire capables de s'adapter à leur régularité. Contrairement aux méthodes existantes, ces estimateurs s'adaptent à la régularité de chaque loi au lieu de s'adapter seulement à la pire régularité. Dans une troisième partie, je me place dans le cadre mal spécifié, c'est-à-dire lorsque les observations sont générées par une loi qui peut ne pas être un modèle de Markov caché. J'établis un contrôle de l'erreur de prédiction de l'estimateur du maximum de vraisemblance sous des conditions générales d'oubli et de mélange de la vraie loi. Enfin, j'introduis une variante non homogène des modèles de Markov cachés : les modèles de Markov cachés avec tendances, et montre la consistance de l'estimateur du maximum de vraisemblance
During my PhD, I have been interested in theoretical properties of nonparametric hidden Markov models. Nonparametric models avoid the loss of performance coming from an inappropriate choice of parametrization, hence a recent interest in applications. In a first part, I have been interested in estimating the number of hidden states. I introduce two consistent estimators: the first one is based on a penalized least squares criterion, and the second one on a spectral method. Once the order is known, it is possible to estimate the other parameters. In a second part, I consider two adaptive estimators of the emission distributions. Adaptivity means that their rate of convergence adapts to the regularity of the target distribution. Contrary to existing methods, these estimators adapt to the regularity of each distribution instead of only the worst regularity. The third part is focussed on the misspecified setting, that is when the observations may not come from a hidden Markov model. I control of the prediction error of the maximum likelihood estimator when the true distribution satisfies general forgetting and mixing assumptions. Finally, I introduce a nonhomogeneous variant of hidden Markov models : hidden Markov models with trends, and show that the maximum likelihood estimators of such models is consistent
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie