Tesi sul tema "Estimation de la fonction de production"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Estimation de la fonction de production.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Estimation de la fonction de production".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Bauer, Arthur. "Essays on Firms Production Function, Markups, and the Share of their Income Going to Workers". Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAG006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fonction de production des entreprises lie leur niveau de production à leurs dépenses en facteurs de production. Son estimation est à la fois importante et peu fiable. Importante, parce que des indicateurs clés pour la conception des politiques publiques, tels que le taux de marge, en découlent. Peu fiable, car elle repose sur des hypothèses d'identification.Ce projet étudie les hypothèses qui sous-tendent l'estimation des fonctions de production : à la fois leurs formes fonctionnelles et la flexibilité des facteurs de production. Il s'appuie ensuite sur une estimations des fonctions de production des entreprises françaises, pour évaluer l'évolution de leur taux de marge et de la part du travail dans leur valeur ajoutée au cours des 30 dernières années.Le chapitre 1 conforte l'hypothèse de flexibilité des facteurs de production: l'ajustement instantané des matières premières ou du travail et l'ajustement retardé du capital. Nous nous appuyons sur l'existence de notches ; des valeurs où les bénéfices après impôt diminuent avec le chiffre d’affaire avant impôt dans le code des impôts français.Nous montrons que les entreprises qui optimisent ont une plus grande élasticité de production par rapport aux matières premières et une plus faible élasticité de la production par rapport au capital. De même, pour ajuster leur production, les entreprises ont tendance à réduire principalement leurs dépenses en matières premières.Le chapitre 2 s’appuie sur le résultat du chapitre 1 pour mesurer le taux de marge de toutes les entreprises françaises entre 1984-2016. De Loecker et Warzynski (2012) montrent que la marge d'une entreprise est proportionnelle à l'inverse de la part de revenu de l'un de ses intrants flexibles. Nous analysons l'évolution des marges agrégées en France et documentons que l'augmentation de la concentration est corrélée à une réallocation des parts de marché vers les entreprises à marge élevée. Nous montrons également que l'évolution de la part du travail reflète l'évolution des marges : la réallocation tend à diminuer la part du travail tandis qu'au sein des entreprises, la part du travail augmente.Le choix d'une forme fonctionnelle pour décrire le processus de production est un compromis entre théorie et empirisme. La fonction de production standard est de type Cobb-Douglas mais impose une élasticité de substitution constante et égale à 1, en contradiction avec la littérature empirique. Les fonctions de production CES ont des élasticités de substitution non unitaires mais constantes au sein de chaque industrie et un ratio d'utilisation des facteurs de production indépendant de la taille de l'entreprise.Le chapitre 3 montre que cette dernière fonction de production ne rend pas compte de l'utilisation des technologies de l’information (TIC), puisque nous documentons une augmentation de la demande relative de TIC avec la taille des entreprises: en cohérence avec une fonction de production CES non-homothétique. Nous analysons ensuite comment l'interaction de la baisse des prix des TIC et les caractéristiques non-homothétiques des TIC rationalisent les faits empiriques documentés dans le chapitre 2. (i) comme les grandes entreprises sont plus intensives en TIC, elles bénéficient de manière disproportionnée de la baisse des prix des TIC, ce qui rationalise l'augmentation de la concentration. (ii) comme les grandes entreprises sont plus intensives en TIC dans l'échantillon, elles fonctionnent avec des rendements d'échelle plus faibles et ont donc des parts de bénéfices plus élevées et des parts de travail plus faibles. Cela explique comment l'augmentation de la concentration entraîne une diminution de la part globale du travail. (iii) les statistiques comparatives du modèle prédisent que l’adoption de TIC liée à la baisse de leur prix implique des rendements d'échelle plus élevés et ont donc une part de travail plus importante, ce qui explique la tendance haussière de la part du travail au sein des entreprises
Firms production function link their use of input factors to their production level. Production function estimates are at the same time important and untrustworthy. Important, because key indicators for policy design, such as the measure of aggregate markups, are derived from those estimates. Untrustworthy because they rely on identification assumptions.This project studies the assumptions underlying the usual techniques for estimating production functions: both their functional forms and the often assumed inputs flexibility. It then leverages production function estimates, to assess how firms ability to price over marginal income and the share of their income going to workers have evolved over the last 30 years.In Chapter 1 we provide evidence on the input flexibility assumption grounding production function estimation: the quasi instantaneous adjustment of either material or labor and delayed adjustment of capital hold. We rely on the existence of notches; values where after-tax profits decrease in before-tax sales in the French tax code.We identify which type of firms adjust their size in response to a transient notch. We do this by studying the ex-ante characteristics of firms below the tax cutoff. We find that firms who bunch tend to have larger elasticity of output with respect to materials and lower elasticity of output with respect to capital. Consistently, we also show that to adjust their remaining production firms, tend to primarily reduce spending on material.In Chapter 2 we leverage evidence on inputs flexibility to recover firm level markups of the universe of firms in France over the 1984-2016 period. De Loecker and Warzynski (2012) show that a firm’s markup proportionates the inverse of one of its flexible inputs revenue share. We analyze the evolution of aggregate markups in France and document that the rise of concentration correlates with a reallocation of market share towards high markup firms. We also show that the evolution of the labor share mirrors the evolution of markups: reallocation tends to decrease labor share while within firms, labor share rises.The choice of a functional form to describe firms production process is a compromise between theory and empirics. The workhorse production function is Cobb-Douglas and imposes a constant (and equal to 1) elasticity of substitution. Recent evidence in the empirical literature has however estimated a micro-elasticity of substitution significantly lower than one. While CES production functions allow for non-unit elasticity of substitution, they assume constant elasticity within industry and imply that the ratio of input use doesn’t depend on firm size.In Chapter 3, we show that the latter production function cannot account for IT inputs use in firms.With detailed data on software and hardware investments among French firms, we document that the firm-level demand for IT inputs relative to other inputs grows in the firm’s scale of operation. Theoretically, a non-homothetic CES production function helps rationalizing this empirical fact.We then analyze how the interaction of the fall of IT prices and the non-homothetic characteristics of IT inputs also help rationalize the empirical facts documented in chapter 2. First, since larger firms are more IT intensive in the cross-section, they benefit disproportionally from the fall in IT prices, rationalizing the rise of concentration. Similarly, since larger firms are more IT intensive in the cross-section, they operate at lower returns to scale and therefore have higher profit shares and lower labor shares. This explains how the rise in concentration drives a decline in aggregate labor shares. Finally, the comparative statistics of the model predicts that the fall of IT prices imply that when firms substitute toward IT they operate at higher returns to scale and therefore tend to have larger labor share, explaining the positive contribution to aggregate labor share of the within component
2

Auclair, Vincent. "Estimation des fonctions d'offre des principaux pays producteurs de pétrole". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28252/28252.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Thenon, Arthur. "Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs". Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066100.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge
Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach
4

Thenon, Arthur. "Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066100/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge
Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach
5

Gérault, Raynald. "Etude des systèmes dynamiques pour l'analyse, la prédiction et la surveillance des systèmes de production". Montpellier 2, 1998. http://www.theses.fr/1998MON20242.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux presentes dans cette these traitent de l'etude des series chronologiques via l'utilisation d'un modele discret non lineaire. On peut extraire un grand nombre de renseignements sur le fonctionnement d'un systeme, des que l'on possede un releve de variables pris a intervalles reguliers. Nous nous sommes donc interesses a la construction d'un modele dynamique capable de reproduire le comportement d'une serie chronologique hautement non lineaire. L'utilisation d'un modele a structure dynamique nous parait tout indique pour refleter le comportement des series temporelles complexes. Un tel modele permet alors de representer une base de connaissance generale et de deduire un fonctionnement global pour une partie d'un systeme. L'etude des reponses du modele donne une prediction comportementale et precise les relations entre differentes composantes d'un systeme parfois tres heteroclites. Aux multiples avantages permis par une modelisation de type dynamique, nous pouvons ajouter ceux generalement offerts par un modele de simulation : validation des hypotheses sur le processus considere, extrapolation comportementale dans des configurations de fonctionnement inedites, aide a la conception, test de dispositifs de commande potentiellement dangereux ou encore synthese d'un correcteur de commandes. Les approches originales montrees et developpees au cours de cette these sont les suivantes : - definition d'un modele mathematique etudier les systemes dynamiques complexes et heteroclites ; - identification des parametres du modele avec des donnees brutes resultant d'un constat d'experts ; - prediction des etats futurs de variables choisies ; - methode de recherche des points singuliers du systeme via l'etude d'une fonction representative, - calcul de trajectoires d'evolution souples d'un point de fonctionnement a un autre ; - application du travail theorique sur un probleme industriel reel.
6

Gardes, Laurent. "Estimation d'une fonction quantile extrême". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2003. http://tel.archives-ouvertes.fr/tel-00005185.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail est l'estimation d'une fonction quantile extrême. Nous considérons n couples de variables aléatoires indépendants et de même loi qu'un couple (X,Y) à support borné du plan. Notre but est d'estimer le quantile extrême (i.e. d'ordre inférieur à 1/n) de la fonction de répartition conditionnelle de Y sachant que X=x. La fonction de x ainsi définie est appelée fonction quantile extrême. Pour ce faire, nous introduisons au préalable un estimateur de l'indice de valeur extreme et nous en déduisons un estimateur de quantile extrême. Ces estimateurs ont la particularité de n'utiliser uniquement l'information apportée par des nombres de points qui dépassent des seuils aléatoires. Nous établissons la consistance faible des estimateurs et nous étudions leurs comportements sur quelques simulations.
7

AKOUCHE, MAHIEDINE. "Estimation de la fonction caracteristique". Paris 6, 1993. http://www.theses.fr/1993PA066005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous donnons un rappel des principaux resultats de convergence de la fonction caracteristique empirique. Nous etablissons une borne superieure pour la distribution limite du maximum du processus caracteristique empirique sur un intervalle fixe. Nous etablissons de meme une borne superieure et inferieure pour la distribution limite citee ci-dessus sur intervalle ou les bornes dependent de n. Nous determinons les vitesses de convergence uniforme dans quelques cas particuliers de lois stables, loi de cauchy, loi normale sur un intervalle fixe, pour les lois stables symetriques sur un voisinage de zero. On considere un autre estimateur, la transformee de fourier de l'estimateur de la densite de parzen-rosenblatt. Nous determinons la fenetre optimale au sens de la moyenne quadratique pour une certaine classe de fonctions caracteristiques, puis nous cherchons la fenetre optimale au sens de wmise (moyenne de l'erreur quadratique integree affectee d'une fonction poids). Nous determinons un estimateur par la methode auto-adaptative, pour cet estimateur nous faisons une etude de simulations. Nous cherchons la fenetre optimale en utilisant une methode pseudo-parametrique (rule of thumb). Nous calculons l'expression exacte du wmise dans le cas d'une loi normale. Par la suite on etablit un resultat semblable a celui de feuerverger et mureika (theoreme 1. 9 19//). On determine une vitesse de convergence uniforme de notre estimateur. Nous etablissons enfin la normalite asymptotique de notre estimateur. La derniere partie est consacree a une etude de simulations, et a quelques illustrations graphiques
8

RRohrbach, Bouhdiba Olfa. "Pour une fonction de production multidimensionnelle". Paris 1, 1995. http://www.theses.fr/1995PA010017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'entreprise est confrontee a un bouleversement de son organisation productive et de l'organisation du travail qui l'accompagne. Elle doit, non seulement faire face aux evolutions du produit et aux exigences qu'il doit satisfaire, mais aussi gerer les changements dans les conditions de la production. Enfin, elle doit, a la fois tenir compte des interactions permanentes de la production avec les autres fonctions de l'entreprise, et integrer de nouveaux criteres de performance, de flexibilite et de qualite. Dans ce contexte, un nouveau paradigme de la production prend place. Celui-ci se caracterise par une organisation en reseau ou les technologies de l'information jouent un role de plus en plus important. La structure de l'entreprise est interdependante et fait appel a l'intelligence de tous ces membres. L'organisation du travail se fait autour d'equipes de production polyvalentes dotees d'autonomie et de capacite de decision. Les relations avec les clients et les fournisseurs tendent vers le partenariat. En bref, l'entreprise part a la redecouverte de la fonction de production a travers sa multidimensionnalite. Les managers redecouvrent la fonction de production a travers de nouvelles approches de la gestion et de l'organisation
The companies are experiencing an upheaval in their manufacturing organization and in their organization of the manufacturing human resources. They have to face the evolution of both the manufacturing environment and their products with the requirements they have to meet. The companies have to integrate the on-going interactions between the manufacturing activity and the other companies activities, but also the new standards of performance, quality and flexibility. In that environment, a new manufacturing paradigm is taking place that is characterized by a networked organization relying increasingly on the information technologies. The company structure is interdependent and requires the excellence of all its members. The work organization is based on multi-product production team that are autonomous and empowered. The relations with customers and with suppliers are evaluating towards partnerships. Broadly speaking, the companies are rediscovering the manufacturing function with its multiple dimensions. The managers are rediscovering the manufacturing function through new management and organization methodologies
9

Birichinaga, Edurne. "Estimation spline de la moyenne d'une fonction aléatoire". Pau, 1987. http://www.theses.fr/1987PAUU3021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Estismation de la moyenne M(T) d'un processus stochastique réel du second ordre, à partir d'un échantillon observé à un nombre fini d'instants d'un intervalle borné de la droite réelle. Le processus est à trajectoires dans l'espace des fonctions réelles de carré intégrable et la moyenne M est supposée appartenir à un espace de Sobolev. Dans ces conditions, il semble naturel d'estimer par des fonctions spline. Trois estimateurs sont proposés et etudiés : fonction spline d'interpolation ou d'ajustement de la moyenne empirique obtenue à partir de l'échantillon et fonction spline dans un ensemble convexe construit à partir d'intervalles de confiance de M en chaque point de discrétisation. Dans le 1er chapitre, après quelques généralités, on s'intéresse aux conditions d'existence et d'unicité de ces estimateurs; cette étude est spécifique dans le cas des fonctions spline d'ajustement car la métrique considérée tient compte de la variance empirique du processus en chaque instant de discrétisation et n'est donc pas la métrique classique. Puis on démontre que, sous des hypothèses convenables, chacun des trois estimateurs proposes converge presque sûrement vers la moyenne M du processus dans l'espace de Sobolev considéré. Les trois méthodes d'estimation proposées ont été programmées et testées sur des échantillons issus de simulations de processus de naissance et de mort. Les résultats de cette étude numérique sont exposés et comparés dans le second chapitre. Le 3ème chapitre est l'application de ces méthodes d'estimation spline à l'analyse en composantes principales d'une fonction aléatoire du second ordre et de moyenne inconnue M. On démontre alors la convergence uniforme presque sure des analyses obtenues par estimation de M vers l'analyse en composantes principales exacte de la fonction aléatoire considérée.
10

Birichinaga, Edurne. "Estimation spline de la moyenne d'une fonction aléatoire". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37603023r.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Demirer, Mert. "Essays on production function estimation". Thesis, Massachusetts Institute of Technology, 2020. https://hdl.handle.net/1721.1/127028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis: Ph. D., Massachusetts Institute of Technology, Department of Economics, May, 2020
Cataloged from the official PDF of thesis.
Includes bibliographical references (pages 193-201).
This first chapter develops a new method for estimating production functions with factor-augmenting technology and assesses its economic implications. The method does not impose parametric restrictions and generalizes prior approaches that rely on the CES production function. I first extend the canonical Olley-Pakes framework to accommodate factor-augmenting technology. Then, I show how to identify output elasticities based on a novel control variable approach and the optimality of input expenditures. I use this method to estimate output elasticities and markups in manufacturing industries in the US and four developing countries. Neglecting labor-augmenting productivity and imposing parametric restrictions mismeasures output elasticities and heterogeneity in the production function. My estimates suggest that standard models (i) underestimate capital elasticity by up to 70 percent (ii) overestimate labor elasticity by up to 80 percent.
These biases propagate into markup estimates inferred from output elasticities: markups are overestimated by 20 percentage points. Finally, heterogeneity in output elasticities also affects estimated trends in markups: my estimates point to a much more muted markup growth (about half) in the US manufacturing sector than recent estimates. The second chapter develops partial identification results that are robust to deviations from the commonly used control function approach assumptions and measurement errors in inputs. In particular, the model (i) allows for multi-dimensional unobserved heterogeneity,(ii) relaxes strict monotonicity to weak monotonicity, (iii) accommodates a more flexible timing assumption for capital. I show that under these assumptions production function parameters are partially identified by an 'imperfect proxy' variable via moment inequalities. Using these moment inequalities, I derive bounds on the parameters and propose an estimator.
An empirical application is presented to quantify the informativeness of the identified set. The third chapter develops an approach in which endogenous networks is a source of identification in estimations with network data. In particular, I study a linear model where network data can be used to control for unobserved heterogeneity and partially identify the parameters of the linear model. My method does not rely on a parametric model of network formation. Instead, identification is achieved by assuming that the network satisfies latent homophily - the tendency of individuals to be linked with others who are similar to themselves. I first provide two definitions of homophily: weak and strong homophily. Then, based on these definitions, I characterize the identified sets and show that they are bounded under weak conditions.
Finally, to illustrate the method in an empirical setting, I estimate the effects of education on risk preferences and peer effects using social network data from 150 Chinese villages.
by Mert Demirer.
Ph. D.
Ph.D. Massachusetts Institute of Technology, Department of Economics
12

Turcotte, Jean-Philippe. "Estimation par densités prédictives". Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6606.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'inférence statistique est un domaine complexe et en constante évolution. Ce mémoire traitera de l'inférence sur la fonction de densité d'une variable aléatoire. Nous partirons de plusieurs résultats connus et développerons une analyse de ces résultats dans le cadre paramétrique avec une approche bayésienne. Nous nous aventurerons aussi dans les problèmes avec espace paramétrique restreint. L'objectif du travail est de trouver les meilleurs estimateurs possibles considérant l'information a priori et l'observation de variables tirées d'une densité faisant intervenir le paramètre. Le chapitre 1 traitera de notions d'inférence bayésienne, de choix de perte évaluant la performance d'un estimateur et possédant des propriétés recherchées. Le chapitre 2 concernera l'estimation ponctuelle du paramètre. En particulier, nous aborderons l'estimateur de James-Stein et trouverons des conditions suffisantes pour la minimaxité et la dominance d'estimateurs en remarquant la forme particulière de ceux-ci. Une condition remontera même à la loi a priori utilisée. Le chapitre 3 établira des liens entre l'estimation ponctuelle et l'estimation par densité prédictive pour le cas multinormal. Des conditions seront aussi établies pour la minimaxité et la dominance. Nous comparerons nos estimateurs à l'estimateur de Bayes découlant d'une loi a priori non informative et démontrerons les résultats par des exemples. Le chapitre 4 considérera le problème dans un cadre plus général où le paramètre d'intérêt pourra être un paramètre de position ou d'échelle. Des liens entre ces deux problèmes seront énoncés et nous trouverons des conditions sur la famille de densités étudiée pour trouver des estimateurs minimax. Quelques exemples concluront cette section. Finalement, le chapitre 5 est l'intégrale de l'article déposé en collaboration avec Tatsuya Kubokawa, Éric Marchand et William E. Strawderman, concernant l'ensemble du problème étudié dans ce mémoire, à savoir l'estimation par densité prédictive dans un espace paramétrique restreint.
13

Poulin, Nicolas. "Estimation de la fonction des quantiles pour des données tronquées". Littoral, 2006. http://www.theses.fr/2006DUNK0159.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le modèle de troncature à gauche, deux variables aléatoires Y et T, de fonctions de répartition respectives F et G ne sont observables que si Y ≥ T. Considérons un échantillon observé (Yi, Ti) ; 1 ≤ i ≤ n de ce couple de variables aléatoires. La fonction des quantiles de F est estimée par la fonction des quantiles de l’estimateur de Lynden-Bell (1971). Après avoir présenté les principaux résultats de la littérature dans le cadre de données indépendantes, nous considérons le cas des données α-mélangeantes. Nous établissons la convergence forte ainsi qu’une représentation forte du quantile sous la forme d’une moyenne de variables aléatoires avec un reste négligeable, ainsi que la normalité asymptotique. Pour le second travail de cette thèse, nous considérons un problème de régression de Y par une variable aléatoire explicative multi-dimensionnelle X. Nous établissons la convergence et la normalité asymptotique de la fonction de répartition conditionnelle ainsi que celles du quantile conditionnel de Y sachant X lorsque Y est tronquée. Des simulations nous ont permis de vérifier la qualité de l’estimation sur des échantillons de taille finie
In the left-truncation model, the pair of random variables Y and T with respective distribution function F and G are observed only if Y ≥ T. Let (Yi,Ti) ; 1 ≤ i ≤ n be an observed sample of this pair of random variables. The quantile function of F is estimated by the quantile function of the Lynden-Bell (1971) estimator. After giving some results of the literature in the case of independant data, we consider the α-mixing framework. We obtain strong consistency with rates, give a strong representation for the estimator of the quantile as a mean of random variables with a neglible rest and asymptotic normality. As regards the second topic of this thesis, we consider a multidimensionnal explanatory random variable X of Y which plays the role of a response. We establish strong consitency and asymptotic normality of the conditional distribution function and those of the conditional quantile function of Y given X when Y is subject to truncation. Simulations are drawn to illustrate the results for finite samples
14

Degerine, Serge. "Fonction d'autocorrélation partielle et estimation autorégressive dans le domaine temporel". Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00243761.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Etude, dans un cadre probabiliste et statistique, de la fonction d'autocorrelation partielle d'un processus scalaire reel, a temps discret, stationnaire au second ordre et centre. Nous nous attachons, dans une premiere partie, a decrire de facon tres complete les differents aspects de cette fonction dans l'investigation, sur le plan probabiliste, de la structure du processus. Notre presentation est faite essentiellement dans le domaine temporel. Cependant le choix d'un langage geometrique, dans l'espace de hilbert engendre par les composantes du processus, facilite le lien avec le domaine spectral. Nous soulignons le role privilegie autoregressif. Nous considerons aussi le cas des processus vectoriels pour lesquels nous proposons la notion de fonction d'autocorrelation partielle canonique. La 2eme partie est consacree aux apports de la fonction d'autocorrelation partielle dans l'estimation de la structure temporelle du processus. La necessite de recourir a d'autres techniques que celle, usuelle, utilisant les autocorrelations empiriques se rencontre lorsque la serie observee est courte, meme en presence d'un echantillon, ou encore lorsqu'elle provient d'un modele proche de la singularite. Nous insistons sur la methode du maximum de vraisemblance, pour laquelle nous precisons les conditions d'utilisation (existence, unicite. . . ) et nous proposons, dans le cas d'un echantillon de series courtes, une methode de relaxation pour sa mise en oeuvre. Nous analysons et comparons les differentes methodes d'estimation autoregressive dans le domaine temporel et constatons les bonnes performances de celle basee sur la version empirique des autocorrelaitons partielles que nous proposons.
15

Degerine, Serge. "Fonction d'autocorrélation partielle et estimation autorégressive dans le domaine temporel". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613056x.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Degerine, Serge Le Breton Alain Van Cutsem Bernard. "Fonction d'autocorrélation partielle et estimation autorégressive dans le domaine temporel". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00243761.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Kamanzi, Pierre Canisius. "Les déterminants de la fonction de production en éducation". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0016/MQ48932.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Nembé, Jocelyn. "Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00346118.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Soit un processus ponctuel observé sur un intervalle de temps fini, et admettant une intensité stochastique conforme au modèle de Aalen. La fonction d'intensité du processus est estimée à partir d'un échantillon indépendant et identiquement distribué de paires constituées par la réalisation du processus ponctuel et du processus prévisible associé, par la minimisation d'un critère qui représente la longueur d'un code variable pour les données observées. L'estimateur de complexité minimale est la fonction minimisant ce critère dans une famille de fonctions candidates. Un choix judicieux des fonctions de complexité permet de définir ainsi des codes universels pour des réalisations de processus ponctuels. Les estimateurs de la fonction d'intensité obtenus par minimisation de ce critère sont presque-sûrement consistants au sens de l'entropie, et au sens de la distance de Hellinger pour des fonctions de complexité satisfaisant l'inégalité de Kraft. L'étude des vitesses de convergence pour la distance de Hellinger, montre qu'elles sont majorées par celle de la redondance du code. Ces vitesses, sont précisées dans le cas des familles de fonctions trigonométriques, polynomiales et splines. Dans le cas particulier des processus de Poisson et des modèles de durées de vie avec censure, les mêmes vitesses de convergence sont obtenues pour des distances plus fortes. D'autres propriétés de l'estimateur sont présentées, notamment la découverte exacte de la fonction inconnue dans certains cas, et la normalité asymptotique. Des suites de tests exponentiels consistants sont également étudiées. Le comportement numérique de l'estimateur est analysé à travers des simulations dans le cas des modèles de durées de vie avec censure
19

Attouch, Mohammed Kadi. "Estimation robuste de la fonction de régression pour des variables fonctionnelles". Littoral, 2009. http://www.theses.fr/2009DUNK0227.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La régression robuste est une analyse de régression possédant la capacité d'être relativement insensible aux larges déviations dues à certaines observations aberrantes. Dans ce cadre, on se propose dans cette thèse d'étudier l'estimation robuste de la fonction de régression, dans le cas où les observations sont à la fois indépendantes, fortement mélangeantes et la co-variable est fonctionnelle. Dans un premier temps, on considère une suite d'observations indépendantes identiquement distribuées. Dans ce contexte, nous établissons la normalité asymptotique d'une famille d'estimateurs robuste de pondération basée sur la méthode du noyau. A titre illustratif, notre résultat est appliqué à la discrimination des courbes, à la prévision des séries temporelles, et à la construction d'un intervalle de confiance. Dans un second temps, nous supposons que les observations sont fortement mélangeantes, et nous établissons la vitesse de convergence presque complète ponctuelle et uniforme de cette famille d'estimateurs ainsi que la normalité asymptotique. Notons, que les axes structurels du sujet, à savoir la "dimensionnalité" et la corrélation des observations, la "dimensionnalité" et la robustesse du modèle, sont bien exploités dans cette étude. De plus, la propriété de la concentration de la mesure de probabilité de la variable fonctionnelle dans des petites boules est utilisée, cette mesure de concentration permet sous certaines hypothèses de proposer une solution originale au problème du fléau de la dimension et ainsi généraliser les résultats déjà obtenus dans le cadre multi varié. Pour illustrer l'extension et l'apport de notre travail, nous explicitons dans des exemples comment nos résultats peuvent être appliqués aux problèmes non standard de la statistique non-paramétrique tel que la prévision de série temporelles fonctionnelles. Nos méthodes sont appliquées à des données réelles telles que l'économie et l'astronomie
The robust regression is an analysis of regression with capacity to be relatively insensitive to the large deviations due to some outliers observations. Within this framework, one proposes in this thesis studied the robust estimate of the function of regression, if the observations are at the same time independent, strongly mixing and the covariate is functional. Initially, on considers a succession of identically distributed independent observations. In this context, we establish the asymptotic normality of a robust family of estimators based on the kernel method. With title illustrative, our result is applied to the discrimination of the curves, the forecast time series, and to the construction of a confidence interval. In the second time, we suppose that the observations are strongly mixing, and we establish the rate of specific almost complete convergence and uniform of this family of estimators as well as asymptotic normality. Let us note, that the axes structural of the subject, namely “dimensionality” and the correlation of the observations, “dimensionality” and the robustness of the model, are well exploited in this study. Moreover, the property of the concentration of the measure of probability of the functional variable in small balls is used, this measure of concentration allows under some assumptions to propose an original solution to the problem of the curse of dimensionality and thus to generalize the results already obtaines in the multivariate framework. To illustrate the extension and the contribution of our work, we show in some examples how our results can be applied to the nonstandard problems of the non-parametric statistics such as the forecast of functional time series. Our methods are applied to real data such as the economy and astronomy
20

Nembé, Jocelyn Grègoire Gérard. "Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00346118.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Brunel, Dominique. "La fonction phatique dans la production romanesque de Jean Giono". Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX10002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En renforcant le circuit de la communication au moyen de marques linguistiques specifiques, la fonction phatique du langage designe une tendance a vouloir communiquer. Lorsqu'elle est transposee a la litterature, elle oblige a prendre aussi en compte, d'une part, la vie sociale et culturelle des signes, et, d'autre part, la dynamique textuelle. La production romanesque de giono revele en effet l'importance de ces deux facteurs d'analyser dans l'institution et le fonctionnement d'une relation intime auteur - lecteur: par le symbolisme des textes, les diffe- rentes techniques narratives et - paradoxalement - la mise en oeuvre d'un non-dit, giono marque sa presence dans les recits qu'il compose et nous interpelle implicitement. Plus encore, l'ecrivain realise ce prodige de recreer une nouvelle communion phatique fondee, en nos temps modernes, sur la perte d'une communication naturelle entre les hommes
As it reinforces the circuit of communication by means of specific linguistic signs, the phatic function of language denotes a tendency to wish to communicate. When it is transferred to literature, it necessitates also taking into account, on the one hand, the social and cultural life of the signs and, on the other hand, the dynamic forces of the text. An analysis of giono's novelistic output does indeed reveal the importance of these two factors in establishing and maintaining a close relationship between the author and the reader: by means of the symbolism of texts, different narrative techniques and paradoxically - the use of what is unstated, giono makes his presence know in the stories he writes and engages us implicitely. What is more, the writer achieves the prodigious recreation of a new phatic communion based, in these modern times, on the loss of natural communication between people
22

Pambo, Bello Kowir. "Estimation à noyau de la fonction de hasard pour des variables censurées". Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur des estimations à noyau de la fonction de hasard (notée λ) dans le cas où les variables sont censurées. Elle est constituée de trois chapitres. Dans chacun des deux premiers chapitres, on construit un estimateur à noyau récursif en utilisant un algorithme stochastique à pas double, puis on établit sa convergence en loi. On compare ces estimateurs avec un estimateur à noyau non récursif. On montre que les vitesses asymptotiques de l’estimateur récursif λn et de l’estimateur non récursif sont du même ordre. Cependant, du point de vue de l’estimation par intervalle de confiance, on montre qu’il est préférable d’utiliser l’estimateur λn plutôt que le non récursif: pour un même niveau, la largeur de l’intervalle obtenue avec le récursif est plus petite que celle de l’intervalle obtenu avec le non récursif. Dans le troisième chapitre, on rappelle tout d’abord les notions de grandes déviations et de déviations modérées, puis on établit des principes de déviations modérées ponctuelles et uniformes pour la suite (eλ̃n-λ) où eλ̃n est un estimateur non récursif
This thesis deals with kernel estimates of the hazard function (denoted by λ) in the case when the variables are censored. It composed of three chapters. In each of the first two chapters, we construct a kernel estimator by using a double recursive stochastic algorithm (two-time-scale stochastic algorithm), and then establish its convergence in law. We compare these estimates with a nonrecursive kernel estimator. We show that the asymptotic rate of the recursive estimator λn and the one of the nonrecursive version are similar. However, in terms of confidence interval estimation, we show that it is better to use the estimator λn rather than the nonrecursive version: for the same asymptotic level, the width of the interval obtained by the recursive estimator is smaller than the one obtained with the nonrecursive version. In the third chapter, we first recall the notions of large deviations and moderate deviations, then we establish the pointwise and uniform moderate deviations principles for the sequence (eλ̃n-λ) where eλ̃n is a nonrecursive estimator
23

Ferrigno, Sandie. "Un test d'adéquation global pour la fonction de répartition conditionnelle". Montpellier 2, 2004. http://www.theses.fr/2004MON20110.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Bahamonde, Natalia. "Estimation de séries chronologiques avec données manquantes". Paris 11, 2007. http://www.theses.fr/2007PA112115.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Srihari, Krishnaswami. "Leadtime estimation in a manufacturing shop environment". Thesis, Virginia Tech, 1985. http://hdl.handle.net/10919/45684.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):

This research examines the relationships between the independent variables; lot size, sequencing rule, and shop type/product mix and the â dependent variables; work-in-process, machine utilization, flowtime, and leadtime. These relationships have seldom been investigated by academicians. There is no satisfactory method available in the literature today that can be used to accurately estimate leadtime. This research developed methods for leadtime estimation. A leadtime estimation method would be invaluable to the production planner, for it would enable the person to decide when the job should be released to the shop.

The experimental system considered in this research is an eight machine shop. Three different shop types, a jobshop, modified flowshop, and a flowshop, were modelled. Each shop type had eight different product types being manufactured. Two different sequencing rules, SPT and FIFO, were used. The entire system was analyzed via simulation on an IBM P.C. using SIMAN system simulation concepts.
Master of Science

26

Latte, Okon Wesley. "La fonction législative en Côte d'Ivoire : processus législatif et production législative". Bordeaux 4, 1996. http://www.theses.fr/1996BOR40024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'exercice de la fonction legislative parlementaire obeit tant d'abord sur le plan juridique a la rationalisation parlementaire. Cette technique "s'exprime" a travers la delimitation d'un domaine de la loi et le controle de constitutionnalite des lois, ainsi que par le respect d'une procedure pre-etablie. Dans l'ensemble cependant, toutes ces techniques n'ont eu aucune consequence pratique. En revanche, le facteur politique a pese d'un poids considerable sur l'exercice de la fonction legislative. Dans les premieres annees de l'independance, les deputes bien que recrutes par le president houphouet boigny assiste du pdci-rda, ont de facon fort pertinente, participe a l'adoption des lois tant du point de vue de l'initiative que des debats parlementaires en commissions et en seances plenieres. Cette situation devait considerablement evoluer a la suite des purges politiques de 1963-1964 consecutives a la decouverte des complots politiques. De cette periode allant de 1964 a 1980, annee de la democratisation interne du regime, les deputes ivoiriens sont restes tres timides. Ils n'ont pris aucune initiative legislative et n'ont pratiquement pas participe aux debats parlementaires. L'assemblee nationale durant cette periode, peut sans aucun doute etre qualifiee de chambre d'enregistrement a quelques exceptions pres. Avec la democratisation du regime en 1980, l'on attendait a une participation plus franche et plus intense des deputes aux debats parlementaires. Apres quelques tentatives d'emancipations vite decouragees au cours de l'annee 1981, les deputes ont pu prendre la mesure de la liberte qui leur etait accordee. La fonction legislative au cours de la decennie 1980 n'est en definitive pas differente des legislatures precedentes
The functioning of the parliamentary legislative body, from a legal point of view, responds first and foremost to parliamentary rationalisation. This technique can be seen through the demarcation of a particular area of the law and the monitoring of the constitutionality of the laws, as well as through the respecting of a pre-established procedure. On the whole, however, none of these techniques have had any practical consequences whatsoever. On the other hand, the political factor has been a huge influence on the functioning of the legislative service. In the early years of independence, members of parliament, although recruited by president houphouet boigny, assisted by the pdci-rda, participated rather pertinently in the adoption of laws, as much from the point of view of taking the initiatives, as taking part in the parliamentary debates in the commissions and plenary assemblies. This situation was to evolve considerably following the political purges of 1963-1964, which were a result of the discovery of political plotting. From this period of 1964-1980, the year of the internal democratisation of the regime, ivory coast m. P. 's have remained rather timorous. They have not taken any legislative initiatives, and have practically not taken part in any parliamentary debates. The national assembly during this period can no doubt be described simply as a registration chamber, with one or two exceptions
27

Mint, El Mouvid Mariem. "Sur l'estimateur linéaire local de la fonction de répartition conditionnelle". Montpellier 2, 2000. http://www.theses.fr/2000MON20162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail, nous nous interessons aux aspects theoriques de l'estimateur lineaire local de la fonction de repartition conditionnelle. Dans le chapitre 1, nous faisons un rappel de la theorie des u-statistiques. Au chapitre 2, nous presentons l'estimateur sous la forme d'un rapport de deux u-statistiques dont nous determinons les principales proprietes. Dans le chapitre 3, nous etablissons sa convergence presque complete ponctuelle et uniforme. Nous etudions au chapitre 4 son erreur quadratique moyenne et nous la comparons a celles d'autres estimateurs a noyaux. Nous etablissons egalement un principe d'invariance de cet estimateur. Au chapitre 5, nous definissons des estimateurs de la fonction variance et des quantiles conditionnels a partir de cet estimateur. Nous etablissons leur convergence presque sure ainsi que leur normalite asymptotique.
28

Belalia, Mohamed. "Estimation et inférence non paramétriques basées sur les polynômes de Bernstein". Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8558.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans la première partie de cette thèse, nous avons proposé des tests non paramétriques d'indépendance entre des variables aléatoires continues. Les tests proposés sont basés sur la fonction de copule empirique de Bernstein et la fonction de densité de copule de Bernstein. La deuxième partie, nous avons abordé le problème de l’estimation non paramétrique de la fonction de densité de probabilité conditionnelle et la fonction de répartition conditionnelle basée sur une représentation polynomiale de Bernstein. Les estimateurs proposés ont été utilisés pour estimer la fonction de régression et la fonction de quantile conditionnelle. Les propriétés asymptotiques de ces estimateurs ont été établies. Finalement, une étude de simulation est menée pour montrer la performance de nos estimateurs, soit sur des exemples simulés ou bien des données réelles.
29

Pinson, Pierre. "Estimation de l'incertitude des prédictions de production éolienne". Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002187.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'énergie éolienne connaît un développement considérable en Europe. Pourtant, le caractère intermittent de cette énergie renouvelable introduit des difficultés pour la gestion du réseau électrique. De plus, dans le cadre de la dérégulation des marchés de l'électricité, l'énergie éolienne est pénalisée par rapport aux moyens de production contrôlables. La prédiction de la production éolienne à des horizons de 2-3 jours aide l'intégration de cette énergie. Ces prédictions consistent en une seule valeur par horizon, qui correspond à la production la plus probable. Cette information n'est pas suffisante pour définir des stratégies de commerce ou de gestion optimales. C'est pour cela que notre travail se concentre sur l'incertitude des prédictions éoliennes. Les caractéristiques de cette incertitude sont décrites à travers une analyse des performances de certains modèles de l'état de l'art, et en soulignant l'influence de certaines variables sur les moments des distributions d'erreurs de prédiction. Ensuite, nous décrivons une méthode générique pour l'estimation d'intervalles de prédiction. Il s'agit d'une méthode statistique nonparamétrique qui utilise des concepts de logique floue pour intégrer l'expertise acquise concernant les caractéristiques de cette incertitude. En estimant plusieurs intervalles à la fois, on obtient alors des prédictions probabilistes sous forme de densité de probabilité de production éolienne pour chaque horizon. La méthode est évaluée en terme de fiabilité, finesse et résolution. En parallèle, nous explorons la possibilité d'utiliser des prédictions ensemblistes pour fournir des 'prévisions d'erreur'. Ces prédictions ensemblistes sont obtenues soit en convertissant des prévisions météorologiques ensemblistes (fournies par ECMWF ou NCEP), soit en appliquant une approche de décalage temporel. Nous proposons une définition d'indices de risque, qui reflètent la dispersion des ensembles pour un ou plusieurs horizons consécutifs. Une relation probabiliste entre ces indices de risque et le niveau d'erreur de prédiction est établie. Dans une dernière partie, nous considérons la participation de l'énergie éolienne dans les marchés de l'électricité afin de démontrer la valeur de l'information 'incertitude'. Nous expliquons comment définir des stratégies de participation à ces bourses de l'électricité avec des prédictions déterministes ou probabilistes. Les bénéfices résultant d'une estimation de l'incertitude des prédictions éoliennes sont clairement démontrés.
30

Green, Stuart. "Estimation of tritium production in fusion reactor blankets". Thesis, University of Birmingham, 1988. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.538947.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The aim of this work has been to obtain reliable experimental data which can be used to obtain constraints on the tritium breeding cross-sections of 6-Li and 7-Li; and, to develop a technique for rapid estimation of tritium production in a fusion reactor blanket. A range of experimental and calculational techniques were used during the project, but the main approach was to circumvent problems in direct measurement of tritium production by using other reactions, which behave in the same way as the 6-Li(n, alpha)t and 7-Li(n, n'alpha)t reactions. The measurement regime was optimised, and then compared with Monte-Carlo predictions made by the MORSE code. To check the calculations an NE-213 spectrometer was used to give differential (in energy) neutron information. Significant modifications were made to an existing spectrometer, before it was used for the measurements described here. The matrix unfolding technique was used to obtain neutron energy spectrum information from the measured NE-213 pulse-height response, and the code 05S was used to predict the mono-energetic detector responses that this requires. The data input to 05S was updated as part of this work, particularly the cross-section and angular distribution used for the 12-C(n, alpha)9-Be reaction.
31

Pinson, Pierre Patrick. "Estimation de l’incertitude des prédictions de production eolienne". Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1432.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’énergie éolienne connaît un développement considérable en Europe. Pourtant, le caractère intermittent de cette énergie renouvelable introduit des difficultés pour la gestion du réseau électrique. De plus, dans le cadre de la dérégulation des marchés de l’électricité, l’énergie éolienne est pénalisée par rapport aux moyens de production contrôlables. La prédiction de la production éolienne à des horizons de 2-3 jours aide l’intégration de cette énergie. Ces prédictions consistent en une seule valeur par horizon, qui correspond à la production la plus probable. Cette information n’est pas suffisante pour définir des stratégies de commerce ou de gestion optimales. C’est pour cela que notre travail se concentre sur l’incertitude des prédictions éoliennes. Les caractéristiques de cette incertitude sont décrites à travers une analyse des performances de certains modèles de l’état de l’art, et en soulignant l’influence de certaines variables sur les moments des distributions d’erreurs de prédiction. Ensuite, nous décrivons une méthode générique pour l’estimation d’intervalles de prédiction. Il s’agit d’une méthode statistique nonparamétrique qui utilise des concepts de logique floue pour intégrer l’expertise acquise concernant les caractéristiques de cette incertitude. En estimant plusieurs intervalles à la fois, on obtient alors des prédictions probabilistes sous forme de densité de probabilité de production éolienne pour chaque horizon. La méthode est évaluée en terme de fiabilité, finesse et résolution. En parallèle, nous explorons la possibilité d’utiliser des prédictions ensemblistes pour fournir des ‘prévisions d’erreur’. Ces prédictions ensemblistes sont obtenues soit en convertissant des prévisions météorologiques ensemblistes (fournies par ECMWF ou NCEP), soit en appliquant une approche de décalage temporel. Nous proposons une définition d’indices de risque, qui reflètent la dispersion des ensembles pour un ou plusieurs horizons consécutifs. Une relation probabiliste entre ces indices de risque et le niveau d’erreur de prédiction est établie. Dans une dernière partie, nous considérons la participation de l’énergie éolienne dans les marchés de l’électricité afin de démontrer la valeur de l’information ‘incertitude’. Nous expliquons comment définir des stratégies de participation à ces bourses de l’électricité avec des prédictions déterministes ou probabilistes. Les bénéfices résultant d’une estimation de l’incertitude des prédictions éoliennes sont clairement démontrés
Wind power experiences a tremendous development of its installed capacities in Europe. Though, the intermittence of wind generation causes difficulties in the management of power systems. Also, in the context of the deregulation of electricity markets, wind energy is penalized by its intermittent nature. It is recognized today that the forecasting of wind power for horizons up to 2/3-day ahead eases the integration of wind generation. Wind power forecasts are traditionally provided in the form of point predictions, which correspond to the most-likely power production for a given horizon. That sole information is not sufficient for developing optimal management or trading strategies. Therefore, we investigate on possible ways for estimating the uncertainty of wind power forecasts. The characteristics of the prediction uncertainty are described by a thorough study of the performance of some of the state-of-the-art approaches, and by underlining the influence of some variables e. G. Level of predicted power on distributions of prediction errors. Then, a generic method for the estimation of prediction intervals is introduced. This statistical method is non-parametric and utilizes fuzzy logic concepts for integrating expertise on the prediction uncertainty characteristics. By estimating several prediction intervals at once, one obtains predictive distributions of wind power output. The proposed method is evaluated in terms of its reliability, sharpness and resolution. In parallel, we explore the potential use of ensemble predictions for skill forecasting. Wind power ensemble forecasts are obtained either by converting meteorological ensembles (from ECMWF and NCEP) to power or by applying a poor man’s temporal approach. A proposal for the definition of prediction risk indices is given, reflecting the disagreement between ensemble members over a set of successive look-ahead times. Such prediction risk indices may comprise a more comprehensive signal on the expected level of uncertainty in an operational environment. A probabilistic relation between classes of risk indices and the level of forecast error is shown. In a final part, the trading application is considered for demonstrating the value of uncertainty estimation when predicting wind generation. It is explained how to integrate that uncertainty information in a decision-making process accounting for the sensitivity of end-users to regulation costs. The benefits of having a probabilistic view of wind power forecasting are clearly shown
32

Buba, Ibrahim Muhammad. "Direct estimation of gas reserves using production data". Texas A&M University, 2003. http://hdl.handle.net/1969/153.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Ben, Cheikh Larbi. "Théorie de la production : une approche paramétrique par la fonction de distance". Paris 2, 1997. http://www.theses.fr/1997PA020031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail nous introduisons une nouvelle approche qui permet de prendre en consideration l'hypothese d'inefficacite technique dans les modeles de production. Cette approche, parametrique, est fondee sur l'utilisation du concept de fonction de distance qui a ete introduit par shephard (1953 et 1970). Nous proposons des mesures des performances productives de la firme en termes de la fonction de distance dans les contextes du court et du long terme. Aussi, nous presentons les avantages de la fonction de distance par rapport aux fonctions de production et aux fonctions de cout. Nos etudes empiriques renforcent l'idee selon laquelle les resultats des estimations fondees sur la fonction de distance peuvent completer et enrichir les resultats issus de l'approche duale en termes de fonction de cout
We introduce a parametric approach which permits to take into account technical inefficiency in models of production. This approach is based on the concept of the input distance function introduced by shephard (1953 and 1970). We propose measures for the productive performances of firms in terms of the distance function in the contexts of static and temporary equilibrium. Besides, we present the advantages of the distance function with respect to the cost and production functions. Our empirical studies show that the parametric distance function approach may improve the results in terms of the cost and production functions
34

Ouassou, Idir. "Estimation sous contraintes pour des lois à symétrie sphérique". Rouen, 1999. http://www.theses.fr/1999ROUES031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour cadre la famille des lois à symétrie sphérique dont le paramètre de position est inconnu mais est soumis à certaines contraintes. Le cas particulier où la loi est gaussienne est développé séparément. Dans le premier chapitre, nous étudions le problème de l'estimation de la moyenne d'une telle loi quand sa norme est égale à une constante positive connue. Nous montrons que, sous coût quadratique, il existe un estimateur optimal de la moyenne dans la classe des estimateurs de type de James-Stein paramétrés par une constante positive. Ensuite nous donnons une classe plus générale d'estimateurs, dits robustes. Nous montrons que la constante optimale qui minimise le risque dans cette classe est bornée inférieurement par une constante indépendante de la contrainte et valide pour l'ensemble des estimateurs de cette classe. Dans le second chapitre, nous abordons le même problème avec l'hypothèse que les différentes contraintes considérées sont basées sur la positivité de toutes les composantes ou de quelques composantes de la moyenne. Le troisième chapitre fournit une généralisation de ce problème d'estimation de la moyenne quand celle-ci est restreinte à un cône polyédral. Enfin, dans le dernier chapitre de cette thèse, nous étendons la problématique d'estimation sous contraintes à l'estimation du coût quadratique d'un estimateur de la moyenne. Les contraintes considérées sont celles envisagées dans les deux premiers chapitres : la norme de la moyenne est connue ou certaines de ses composantes sont supposées positives.
35

Barbier, Franck. "Une approche objet dédiée à la fonction production d'une entreprise manufacturière : application à la gestion de production". Chambéry, 1991. http://www.theses.fr/1991CHAMS001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Face à des problèmes complexes et évolutifs, l'informatisation de la fonction production d'une entreprise manufacturière est difficile à mettre en oeuvre. L'approche objet, utilisant l'objet comme un modèle de données, est une approche appropriée pour de tels problèmes, qui ne peuvent être abordés autrement que par une modélisation. L'objectif des travaux présentés dans ce mémoire de thèse est d'étudier et d'évaluer dans le cadre de la problématique de la gestion de production, l'approche objet, et compte tenu d'améliorations possibles, proposer une approche objet/objet dédiée à la fonction production d'une entreprise manufacturière.
36

TOETSCH, ANDRE-CHARLES. "Influence de la production endogene de monoxyde d'azote sur la fonction cardiaque". Strasbourg 1, 1995. http://www.theses.fr/1995STR15100.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Bourgey, Mathieu. "Estimation des risques de développer la maladie coeliaque en fonction d'informations génétiques et familiales". Paris 11, 2007. http://www.theses.fr/2007PA11T034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Srivastava, Mayank. "Estimation of coalbed methane production potential through reservoir simulation /". Available to subscribers only, 2005. http://proquest.umi.com/pqdweb?did=1079667111&sid=4&Fmt=2&clientId=1509&RQT=309&VName=PQD.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Mahiou, Ramdane. "Sur l'estimation d'une fonction-frontière et l'enveloppe convexe d'un échantillon". Paris 6, 1988. http://www.theses.fr/1988PA066379.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On étudie des problèmes d'estimation dans lesquels le paramètre prend ses valeurs dans un espace fonctionnel, en considérant des variables aléatoires de dimension deux. On applique la méthode de la fenêtre mobile à l'estimateur de Geoffroy et on étudie le comportement asymptotique du nouvel estimateur obtenu. Un algorithme pour déterminer l'enveloppe convexe d'une image de points repartis suivant une loi continue est établi.
40

FERRIGNO, Sandie. "Un test d'adéquation global pour la fonction de répartition conditionnelle". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2004. http://tel.archives-ouvertes.fr/tel-00008559.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Soient X et Y , deux variables aléatoires. De nombreuses procédures statistiques permettent d'ajuster un modèle à ces données dans le but d'expliquer Y à partir de X. La mise en place d'un tel modèle fait généralement appel à diverses hypothèses que
l'on doit valider pour justifier son utilisation. Dans ce travail, on propose une approche globale où toutes les hypothèses faites pour asseoir ce modèle sont testées simultanément.
Plus précisément, on construit un test basé sur une quantité qui permet de canaliser toute l'information liant X à Y : la fonction de répartition conditionnelle de Y sachant (X = x) définie par F(y|x)=P(Y<=y|X=x). Notre test compare la valeur prise par l'estimateur polynômial local de F(y|x) à une estimation paramétrique du modèle supposé et rejette sa
validité si la distance entre ces deux quantités est trop grande. Dans un premier temps, on considère le cas où la fonction de répartition supposée est entièrement spécifiée et, dans
ce contexte, on établit le comportement asymptotique du test. Dans la deuxième partie du travail, on généralise ce résultat au cas plus courant en pratique où le modèle supposé contient un certain nombre de paramètres inconnus. On étudie ensuite la puissance locale du test en déterminant son comportement asymptotique local sous des suites d'hypothèses contigües. Enfin, on propose un critère de choix de la fenêtre d'ajustement qui intervient lors de l'étape d'estimation polynômiale locale de la fonction de répartition conditionnelle.
41

Peypoch, Nicolas. "Théorie et applications de la fonction distance directionnelle en économie de la production". Perpignan, 2006. http://www.theses.fr/2006PERP0732.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent sujet concerne la microéconomie de la production. Plus précisément, cette recherche a pour objet l'introduction de nouvelles méthodes d'analyse de l'efficacité et de la productivité des unités de production. Pour répondre à cet objectif, nous utilisons le concept de fonction distance directionnelle. La première contribution de notre exposé est relative à l'introduction d'une nouvelle mesure d'efficacité et de productivité agrégée. Dans un second temps, cette recherche se consacre à proposer une notion de neutralité parallèle du progrès technique en input et en output. Dans un troisième temps, nous avons introduit une nouvelle méthode de décomposition de la productivité. Le quatrième apport théorique de ce travail concerne les rendements d'échelle. Nous dérivons une notion de rendements d'échelle aplha à partir de celle de technologie homogène de degré alpha. Les méthodologies que nous avons élaborées ont vocation à être opérationnelles. Ainsi, nous mettons en évidence la valeur heuristique de notre nouvel indicateur de productivité agrégé de Luenberger à travers deux applications: la première concerne l'économie de l'éducation alors que la seconde s'intéresse à l'économie du tourisme
This work is about production microeconomic. More precisely, the purpose of this thesis is to introduce new tools in order to analyze efficiency and productivity of the production units. To do this, we use the directional distance function. The contributions are the following: first, we introduce a new aggregate measure of efficiency and productivity. Second, we propose a notion of parallel neutral technical change in input and output. Third, a new decomposition of the productivity is proposed. Fourth, we propose a notion of alpha returns to scale, which is derived from that of homogeneous technology of degree alpha. Finally, we show how our new aggregate Luenberger productivity indicator can be implemented by considering two empirical applications: the first is about education economics whereas the second is about tourism economics
42

Thomas, Corinne. "Contribution à la définition des communications industrielles pour la fonction gestion de production". Nancy 1, 1999. http://www.theses.fr/1999NAN10274.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques de communication évoluées actuelles mises en oeuvre au sein des ateliers, caractérisées par les réseaux locaux industriels et les outils de communication qu'intègrent les équipements, ne sont pas ou peu mises au service de l'interfaçage entre le système de gestion de production et les postes de travail de l'atelier. La mise en oeuvre de cette communication est rendue difficile du fait de l'hétérogénéité des équipements. La gestion de la fabrication au sein de l'atelier passe alors souvent par l'intermédiaire des opérateurs. Par conséquent, fiabilité de l'information et dynamique des échanges ne sont pas garantis. Les travaux présentés dans ce mémoire contribuent à définir une architecture de communication intégrante pour le pilotage et le suivi des procédés industriels en exploitant ces moyens de communication. Dans ce contexte, plusieurs aspects sont explorés. L'étude des systèmes de communication industriels nous amène à constater que la messagerie MMS (Manufacturing Message Specification) représente un langage de communication permettant de définir une architecture de communication intégrante au sein d'un système automatisé de production. L'aspect GPAO et divers travaux relevant du domaine des systèmes d'information en gestion de production nous permettent d'acquérir une vue générale de la gestion d'atelier, sous un aspect informationnel. Enfin, en considérant différentes méthodes de modélisation pour l'analyse des systèmes d'information, nous avons choisi d'utiliser la méthode orientée objet OMT (Object Modeling Technique) dans le cadre de nos travaux. En nous plaçant dans un contexte particulier, nous proposons une approche méthodologique pour l'intégration des activités de gestion de production au niveau des équipements de l'atelier. La démarche consiste à partir de modèles OMT décrivant un système de GPAO et de modèles décrivant un poste de travail d'un point de vue communication, de dériver vers une architecture de communication basée sur la messagerie MMS. Afin de valider notre approche, nous expérimentons la démarche en mettant en oeuvre une application de maquettage d'un poste de travail à commande numérique communicant avec un poste de GPAO, en utilisant MMS
The current advanced communication techniques implemented within workshop, characterized by industrial local area networks and communication tools integrated by equipment, are often not used for interfacing between production management system and workstations of workshop. The implementation of this communication is difficult because heterogeneity of equipment. Manufacturing management within the workshop is often then realized by intermediary of the operators. Reliability of information and dynamics of exchanges are therefore not guaranteed. The research presented in this work contributes to defining an integral communication architecture for control and monitoring of the industrial processes by using these communication tools. Ln this context, several points of view are explored. The study of the industrial communication systems leads us to note that the industrial messaging MMS (Manufacturing Message Specification) represents a communication language making it possible to define an integral communication architecture within an automated production system. CAMM (Computer Aided Manufacturing Management) point of view and different work in the area of the information systems in production management enable us to acquire a general view of the workshop management, under an informational aspect. Finally, by considering different modelling methods for the analysis of the information systems, we chose to use the object oriented method OMT (Object Modeling Technique) for our work. By setting us in a specifie context, we propose a methodological approach for the integration of the production management activities at the level of the equipment in the workshop. By starting from OMT model describing a CAMM system and model describing a workstation from a communication point of view, it consist to derive towards a communication architecture using the messaging MMS. In order to validate our approach, we experiment our method by realising a prototyping application of a numerical control workstation which communicates with a CAMM system by using MMS
43

Jouvie, Camille. "Estimation de la fonction d'entrée en tomographie par émission de positons dynamique : application au fluorodesoxyglucose". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00966453.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La tomographie par émission de positons (TEP) est une méthode d'imagerie fonctionnelle, utilisée en particulier lors du développement de nouveaux médicaments et pour imager les tumeurs. En TEP, l'estimation de la concentration plasmatique artérielle d'activité du traceur non métabolisé (nommée " fonction d'entrée ") est nécessaire pour l'extraction des paramètres pharmacocinétiques. Ceux-ci permettent de quantifier le comportement du traceur dans les tissus, ou plus précisément le traitement du traceur par les tissus. Cette thèse constitue une contribution à l'étude de la fonction d'entrée, par l'élaboration d'une méthode d'estimation de la fonction d'entrée peu invasive à partir des images TEP et de prélèvements veineux. L'exemple du traceur FDG (analogue du glucose) dans le cerveau humain a été choisi. La méthode proposée repose sur la modélisation compartimentale de l'organisme : elle déconvolue le modèle à trois compartiments utilisé pour le FDG. L'originalité de la méthode repose sur trois points : l'utilisation d'un grand nombre de régions d'intérêt ; l'utilisation d'un grand nombre de jeux de trois régions d'intérêt différentes; une estimation itérative. Pour la validation de la méthode, un soin particulier a été porté à la simulation d'images TEP (simulation d'acquisition, reconstruction, corrections) de plus en plus réalistes, depuis une image simple simulée avec un simulateur analytique jusqu'à une image la plus proche possible de la réalité, simulée avec simulateur Monte-Carlo. Une chaîne de pré-traitement (segmentation des IRM associés, recalage entre images TEP et IRM et correction de l'effet de volume partiel par une variante de la méthode de Rousset) a ensuite été appliquée à ces images afin d'extraire les cinétiques des régions d'intérêt, données d'entrée de la méthode d'estimation de la fonction d'entrée. L'évaluation de la méthode sur différentes données, simulées et réelles, est présentée, ainsi que l'étude de la sensibilité de la méthode à différents facteurs tels que les erreurs de segmentation, de recalage, de mesure de l'activité des prélèvements sanguins.
44

Jouvie, Camille. "Estimation de la fonction d’entrée en tomographie par émission de positons dynamique : application au fluorodesoxyglucose". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112303/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La tomographie par émission de positons (TEP) est une méthode d’imagerie fonctionnelle, utilisée en particulier lors du développement de nouveaux médicaments et pour imager les tumeurs. En TEP, l’estimation de la concentration plasmatique artérielle d’activité du traceur non métabolisé (nommée « fonction d’entrée ») est nécessaire pour l’extraction des paramètres pharmacocinétiques. Ceux-ci permettent de quantifier le comportement du traceur dans les tissus, ou plus précisément le traitement du traceur par les tissus. Cette thèse constitue une contribution à l’étude de la fonction d’entrée, par l’élaboration d’une méthode d’estimation de la fonction d’entrée peu invasive à partir des images TEP et de prélèvements veineux. L’exemple du traceur FDG (analogue du glucose) dans le cerveau humain a été choisi. La méthode proposée repose sur la modélisation compartimentale de l’organisme : elle déconvolue le modèle à trois compartiments utilisé pour le FDG. L’originalité de la méthode repose sur trois points : l’utilisation d’un grand nombre de régions d’intérêt ; l’utilisation d’un grand nombre de jeux de trois régions d’intérêt différentes; une estimation itérative. Pour la validation de la méthode, un soin particulier a été porté à la simulation d’images TEP (simulation d’acquisition, reconstruction, corrections) de plus en plus réalistes, depuis une image simple simulée avec un simulateur analytique jusqu’à une image la plus proche possible de la réalité, simulée avec simulateur Monte-Carlo. Une chaîne de pré-traitement (segmentation des IRM associés, recalage entre images TEP et IRM et correction de l’effet de volume partiel par une variante de la méthode de Rousset) a ensuite été appliquée à ces images afin d’extraire les cinétiques des régions d’intérêt, données d’entrée de la méthode d’estimation de la fonction d’entrée. L’évaluation de la méthode sur différentes données, simulées et réelles, est présentée, ainsi que l’étude de la sensibilité de la méthode à différents facteurs tels que les erreurs de segmentation, de recalage, de mesure de l’activité des prélèvements sanguins
Positron Emission Tomography (PET) is a method of functional imaging, used in particular for drug development and tumor imaging. In PET, the estimation of the arterial plasmatic activity concentration of the non-metabolized compound (the "input function") is necessary for the extraction of the pharmacokinetic parameters. These parameters enable the quantification of the compound dynamics in the tissues. This PhD thesis contributes to the study of the input function by the development of a minimally invasive method to estimate the input function. This method uses the PET image and a few blood samples. In this work, the example of the FDG tracer is chosen. The proposed method relies on compartmental modeling: it deconvoluates the three-compartment-model. The originality of the method consists in using a large number of regions of interest (ROIs), a large number of sets of three ROIs, and an iterative process. To validate the method, simulations of PET images of increasing complexity have been performed, from a simple image simulated with an analytic simulator to a complex image simulated with a Monte-Carlo simulator. After simulation of the acquisition, reconstruction and corrections, the images were segmented (through segmentation of an IRM image and registration between PET and IRM images) and corrected for partial volume effect by a variant of Rousset’s method, to obtain the kinetics in the ROIs, which are the input data of the estimation method. The evaluation of the method on simulated and real data is presented, as well as a study of the method robustness to different error sources, for example in the segmentation, in the registration or in the activity of the used blood samples
45

Mohamed, Zain-Eddine. "Étude économétrique de la fonction d'investissement : estimation d'un modèle à plusieurs régimes sur données sectorielles". Toulouse 1, 1987. http://www.theses.fr/1987TOU10027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les décisions d'investissement mettent en jeu quatre marchés (marché de biens et de produits, marché de biens d'équipement, marché financier, marché du travail). Les déséquilibres au niveau de ces marchés influencent la demande d'investissement. On distingue le modèle de demande walrassien et les modèles de demande effective qui prennent en compte différentes contraintes sur certains marchés. Notre objet dans ce travail est de distinguer l'influence de ces diverses contraintes à un niveau désagrégé de l'économie, par l'estimation d'un modèle à plusieurs régimes
Investment decisions concern four maskets (product market, capital market, financial market, labot market). Desequilibrium in these markets implicate the investment demand. One can distinguish the walrassien demand model, and the effective demand models which incorporate different constraints from certain markets. Our object is to distinguish the intensity of that constraints by the estimation of a switching model. Our framework is an economy a little disaggregated, here the different branches of the manufacture in france
46

Mohamed, Zain-Eddine. "Etude économétrique de la fonction d'investissement estimation d'un modèle à plusieurs régimes sur données sectorielles /". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37608115m.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Schmitz, Morgan A. "Euclid weak lensing : PSF field estimation". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS359/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le chemin parcouru par la lumière, lors de sa propagation dans l’Univers, est altéré par la présence d’objets massifs. Cela entraine une déformation des images de galaxies lointaines. La mesure de cet effet, dit de lentille gravitationnelle faible, nous permet de sonder la structure, aux grandes échelles, de notre Univers. En particulier, nous pouvons ainsi étudier la distribution de la matière noire et les propriétés de l’Energie Sombre, proposée comme origine de l’accélération de l’expansion de l’Univers. L’étude de l'effet de lentille gravitationnelle faible constitue l’un des objectifs scientifiques principaux d'Euclid, un télescope spatial de l’Agence Spatiale Européenne en cours de construction.En pratique, ce signal est obtenu en mesurant la forme des galaxies. Toute image produite par un instrument optique est altérée par sa fonction d’étalement du point (PSF). Celle-ci a diverses origines : diffraction, imperfections dans les composantes optiques de l’instrument, effets atmosphériques (pour les télescopes au sol)… Puisque la PSF affecte aussi les formes des galaxies, il est crucial de la prendre en compte lorsque l’on étudie l’effet de lentille gravitationnelle faible, ce qui nécessite de très bien connaître la PSF elle-même.Celle-ci varie en fonction de la position dans le plan focal. Une mesure de la PSF, à certaines positions, est donnée par l’observation d’étoiles non-résolues dans le champ, à partir desquelles on peut construire un modèle de PSF. Dans le cas d’Euclid, ces images d’étoiles seront sous-échantillonnée ; aussi le modèle de PSF devra-t-il contenir une étape de super-résolution. En raison de la très large bande d’intégration de l’imageur visible d’Euclid, il sera également nécessaire de capturer les variations en longueur d’onde de la PSF.La contribution principale de cette thèse consiste en le développement de méthodes novatrices d’estimation de la PSF, reposant sur plusieurs outils : la notion de représentation parcimonieuse, et le transport optimal numérique. Ce dernier nous permet de proposer la première méthode capable de fournir un modèle polychromatique de la PSF, construit uniquement à partir d’images sous-échantillonnées d’étoiles et leur spectre. Une étude de la propagation des erreurs de PSF sur la mesure de forme de galaxies est également proposée
As light propagates through the Universe, its path is altered by the presence of massive objects. This causes a distortion of the images of distant galaxies. Measuring this effect, called weak gravitational lensing, allows us to probe the large scale structure of the Universe. This makes it a powerful source of cosmological insight, and can in particular be used to study the distribution of dark matter and the nature of Dark Energy. The European Space Agency’s upcoming Euclid mission is a spaceborne telescope with weak lensing as one of its primary science objectives.In practice, the weak lensing signal is recovered from the measurement of the shapes of galaxies. The images obtained by any optical instrument are altered by its Point Spread Function (PSF), caused by various effects: diffraction, imperfect optics, atmospheric turbulence (for ground-based telescopes)… Since the PSF also alters galaxy shapes, it is crucial to correct for it when performing weak lensing measurements. This, in turn, requires precise knowledge of the PSF itself.The PSF varies depending on the position of objects within the instrument’s focal plane. Unresolved stars in the field provide a measurement of the PSF at given positions, from which a PSF model can be built. In the case of Euclid, star images will suffer from undersampling. The PSF model will thus need to perform a super-resolution step. In addition, because of the very wide band of its visible instrument, variations of the PSF with the wavelength of incoming light will also need to be accounted for.The main contribution of this thesis is the building of novel PSF modelling approaches. These rely on sparsity and numerical optimal transport. The latter enables us to propose the first method capable of building a polychromatic PSF model, using no information other than undersampled star images, their position and spectra. We also study the propagation of errors in the PSF to the measurement of galaxy shapes
48

Hamrouni, Zouhir. "Inférence statistique par lissage linéaire local pour une fonction de régression présentant des dicontinuités". Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004840.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse à l'estimation, dans un cadre non paramétrique, d'unis fonction de régression présentant des discontinuités et, plus précisément aux problèmes de dé tection de ruptures, d'estimation des paramètres de rupture (nombre, localisations, ainplitudesj et de segmentation de la fonction de régression (reconstitution de la fonction). La méthode utilisée est basée sur les propriétés du processsus de saut estimé, y(t), défini en tout i comme lt. Différence entre un estimateur à droite et un estimateur à gauche, ces estimateurs étant obtenus régression linéaire locale. - Dans un premier temps, nous considérons la situation d'une seule discontinuité et étudions les propriétés de l'estimateur de l'amplitude de la discontinuité lorsque la localisation est connue. Nous donnons l'expression de l'erreur quadratique moyenne asymptotique et montrons la convergence et la normalité asymptotique de l'estimateur. Lorsque la localisation r n'est pas connue, nous construisons un estimateur de r à l'aide du processus de déviation locale associé à 7(t) et montrons que cet estimateur converge avec une vitesse en n,-r ou arbitrairement proche de r-r selon le noyau utilisé. Nous proposons ensuite trois tests d'existence d'une rupture : un test strictement local, un test local et un test global, tous trois définis en terme d'une statistique construite à (aide du processus de saut estimé. Concernant le problème d'estimation du nombre de ruptures nous élaborons une procédure permettant à la fois d'estimer le nombre y de ruptures et les localisations rr. . . . Ry. Nous montrons la convergence presque sûre de ces estimateurs et donnons aussi des résultats sur les vitesses de convergence. Enfin nous proposons une méthode de reconstitution d'une fonction de régression présentant des discontinuités basée sur la segmentation des observations. Nous montrons qu'en utilisant la procédure d'estimation du nombre de ruptures et des localisations développée auparavant, nous obtenons un estimateur de la fonction de régression qui a la même vitesse de convergence qu'en (absence de ruptures. Des expérimentations numériques sont fournies pour chacun des problèmes étudiés de manière à mettre en évidence les propriétés des procédures étudiées et leur sensibilité aux divers paramètres
49

De, Lamotte Frédéric. "Étude des relations structure - fonction des protéines végétales". Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00375496.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors de mon cursus universitaire à Orsay, j'ai eu l‘opportunité de suivre des enseignements variés, tous (ou presque ...) dispensés avec passion. Ces professeurs m'ont conforté dans mon amour de la Science, avec un intérêt tout particulier pour l'étude des systèmes complexes : la compréhension du fonctionnement de la cellule, de l'organe et de l'individu m'apparaissait alors riche de mille promesses !
J'ai lu avec intérêt les deux volumes du “Heller”, captivé par l'ingéniosité de nos aînés pour élucider le fonctionnement des plantes. Toutefois, déjà à l'époque, je ressentais une certaine frustration car l'analyse s'arrêtait à un niveau “descriptif”. Je rêvais de pouvoir descendre à un niveau “explicatif” (par la suite, j'ai appris qu'on disait “moléculaire”). Imaginer un instant qu'on puisse un jour visualiser la cascade d'interactions moléculaires qui va de l'application de l'acide abscissique à la chute des feuilles me comblait d'aise.
Comprendre cet enchaînement nécessite d'appréhender le fonctionnement de chacune des protéines impliquées, or ces fonctions sont portées par les structures tridimensionnelles des protéines. C'est là que tout devient plus compliqué ! En effet, il suffit de consulter les bases de données et d'y comparer l'abondance relative des structures primaires de protéines à celle des structures tertiaires pour mesurer la difficulté d'aborder la troisième dimension ! Même avec les progrès réalisés au tournant du millénaire, déterminer toutes les structures 3D de toutes les protéines étudiées semble hors de portée. On réalise alors le grand intérêt de construire une “Pierre de Rosette” qui fera correspondre structures primaires, structures tertiaires et fonctions. De même qu'on sait déjà traduire une séquence de nucléotides en une séquence d'acides aminés, il est primordial de percer les lois qui nous permettront de replier une séquence d'acides aminés en une structure tridimensionnelle. Nous pourrons ainsi, à moindre effort, obtenir les structures 3D in silico, en analyser le fonctionnement et les interactions. Cela est d'autant plus important en cette ère de post-génomique qui voit s'accumuler des milliers de séquences inconnues, issues des programmes de séquençage systématique.
50

Peterson, Brooke Ashley. "Estimation of rumen microbial protein production and ruminal protein degradation". College Park, Md. : University of Maryland, 2006. http://hdl.handle.net/1903/3865.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (Ph. D.) -- University of Maryland, College Park, 2006.
Thesis research directed by: Animal Sciences. Title from t.p. of PDF. Includes bibliographical references. Published by UMI Dissertation Services, Ann Arbor, Mich. Also available in paper.

Vai alla bibliografia