To see the other types of publications on this topic, follow the link: Identification structurelle.

Dissertations / Theses on the topic 'Identification structurelle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Identification structurelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Balaniuk, Remis. "Identification structurelle." Phd thesis, Grenoble INPG, 1996. http://tel.archives-ouvertes.fr/tel-00004974.

Full text
Abstract:
De nombreuses techniques mathématiques utilisées en robotique reposent sur l'identification de paramètres ou sur la construction d'un modèle de type boîte noire (réseaux de neurones par exemple). Dans le premier cas on se donne une équation de mesure dont on ignore certains paramètres, mais pour laquelle on dispose de mesures experimentales du phénomène qu'on cherche à modéliser. Le problème revient alors à trouver les valeurs numériques des paramètres inconnus de l'équation pour obtenir un modèle du système. Cela revient en général à conduire un certain nombre d'expériences puis à faire de la minimisation au sens des moindres carrés pour trouver les paramètres qui expliquent au mieux les mesures obtenues. Dans le deuxième cas on utilise une technique d'approximation universelle permettant de modéliser la réponse du système. Pour cela on corrige l'ensemble des paramètres de l'approximateur à l'aide d'un algorithme adaptatif et d'un ensemble d'exemples. On dispose donc actuellement de deux grandes classes de méthodes : l'une faisant appel à de fortes connaissances préalables (la connaissance de l'équation de mesure) et l'autre ne faisant appel à aucune connaissance préalable. L'objet de cette thèse est de proposer une méthode intermédiaire: l'identification structurelle. Dans ce cadre on ne connaît plus la forme paramétrique de l'équation de mesure mais des informations a-priori sur sa forme générale. Par exemple, on sait que l'équation de mesure est formée d'un polynôme de fonctions quelconques d'une seule variable. Nous montrons qu'il est possible d'inférer cette équation de mesure dès lors que l'on choisit un protocole expérimental approprié et que l'on dispose d'un approximateur universel pour les fonctions d'une seule variable. L'ensemble des polynômes de fonctions trigonométiques multi-variables rentre dans le cadre juste évoqué. On peut donc appliquer cette méthode à de nombreux problèmes trouvés en robotique. On peut par exemple identifier le modèle géométrique d'un bras manipulateur ou trouver l'expression de la jacobienne reliant les mouvements d'un bras aux mouvements d'indices visuels dans une image vidéo. Le modèle fonctionnel obtenu peut être utilisé pour commander le système. C'est ainsi que nous avons réalisé un asservissement visuel avec cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
2

Balaniuk, Remis. "Identification structurelle." Phd thesis, Grenoble INPG, 1996. https://theses.hal.science/tel-00004974.

Full text
Abstract:
Dans ce mémoire nous proposons une méthode originale d'acquisition de modèles : l'identification structurelle. Nous nous plaçons dans un cadre intermédiaire entre les méthodes de modélisation classiques et les méthodes basées sur l'apprentissage. Nous montrons que pour le cas d'une classe particulière mais assez générale de fonctions il est possible d'inférer automatiquement la forme d'équation qui représente au mieux un certain processus physique, évitant ainsi l'effort de caractérisation du modelé par le concepteur. L'acquisition des modèles est faite suivant un protocole expérimental dans lequel l'identification de paramètres est à des problèmes n'ayant qu'une seule dimension d'entrée, réduisant ainsi la quantité de données requise. Les modèles générés par la méthode sont facilement différentiables, améliorables et réutilisables. La méthode peut être particulièrement utile en robotique ou l'on rencontre souvent le type fonctionnel considéré
APA, Harvard, Vancouver, ISO, and other styles
3

Lesellier, Max. "Articles en microéconométrie structurelle." Electronic Thesis or Diss., Toulouse 1, 2023. http://www.theses.fr/2023TOU10016.

Full text
Abstract:
Dans cette thèse, je développe de nouvelles méthodes économétriques pour tester et relaxer les restrictions statistiques ou d'équilibre couramment supposées dans des modèles populaires d'organisation industrielle, tels que le modèle logit à coefficients aléatoires, les jeux d'entrée et les contrats optimaux. J'applique ensuite ces méthodes pour étudier comment les hypothèses habituelles affectent les résultats obtenus dans plusieurs exemples empiriques pertinents. Cette thèse contient trois chapitres.Le premier chapitre de ma thèse s'intitule "Tester et relaxer les hypothèses de distribution sur les coefficients aléatoires dans le modèle de demande ". Ce chapitre est co-écrit avec deux autres doctorants, Hippolyte Boucher et Gökçe Gökkoca. Nous proposons une méthode pour tester et relaxer les hypothèses de distribution sur les coefficients aléatoires dans le modèle de demande de produits différenciés initié par Berry (1994) et Berry, Levinsohn et Pakes (1995). Il s'agit du modèle de référence pour l'estimation de la demande avec des données agrégées de marché. Les coefficients aléatoires modélisent l'hétérogénéité des préférences non observées. Dans ce chapitre, nous proposons un test de spécification sur la distribution des coefficients aléatoires, qui permet aux chercheurs de tester la spécification choisie (par exemple la normalité) sans ré-estimer le modèle sous une paramétrisation plus flexible. Les moments sont choisis pour maximiser la puissance du test lorsque la distribution des coefficients aléatoires est mal spécifiée. En exploitant la dualité entre l'estimation et le test, nous montrons que ces instruments peuvent également améliorer l'estimation du modèle BLP sous une paramétrisation flexible. Enfin, nous validons notre approche avec des simulations de Monte Carlo et une application empirique sur le marché des voitures en Allemagne.Le deuxième chapitre s'intitule "Inégalités de Moment pour les Jeux d'Entrée avec Types Hétérogènes". Ce chapitre a été co-écrit avec Christian Bontemps et Rohit Kumar. Nous développons de nouvelles méthodes pour simplifier l'estimation des jeux d'entrée lorsque le mécanisme de sélection d'équilibre est non restreint. En particulier, nous développons un algorithme qui nous permet de sélectionner de manière récursive un sous-ensemble d'inégalités qui caractérisent de manière minimale l'ensemble des paramètres admissibles. Ensuite, nous proposons une procédure inférentielle compétitive en lissant la fonction minimum. Cela nous permet d'obtenir une statistique de test pivotale qui élimine "numériquement" les moments non saturés. Nous montrons que nous récupérons une région de confiance convergente en laissant le paramètre de lissage augmenter avec la taille de l'échantillon. Aussi, notre procédure peut facilement être adaptée au cas avec covariables, y compris continues. Enfin, nous menons des simulations de Monte Carlo pour évaluer les performances de notre nouvelle procédure d'estimation.Le troisième chapitre s'intitule "Identification et Estimation des Contrats d'Incitation sous Information Asymétrique : une application au secteur de l'eau en France". Nous développons un modèle principal-agent pour représenter la sous-traitance de gestion pour la prestation de services publics. Une entreprise (l'agent) possède une connaissance privée de son coût marginal de production. L'autorité publique locale (le principal) se préoccupe du surplus net des consommateurs et du bénéfice de l'entreprise. La négociation contractuelle est modélisée comme le choix de l'entreprise informée de manière privée dans un menu d'options déterminant le prix unitaire facturé aux consommateurs et le montant fixe. Notre modèle théorique caractérise la sous-traitance optimale dans cet environnement. Nous étudions ensuite l'identification non paramétrique du modèle et effectuons une estimation semi-paramétrique sur des données provenant de l'enquête de l'Institut Français de l'Environnement de 2004
In this thesis, I develop new econometric methods to test and relax statistical or equilibrium restrictions that are commonly assumed in popular industrial organization models including the random coefficient logit model, entry games, and optimal contracts. I then apply these methods to investigate how the usual assumptions affect the results obtained in several pertinent empirical examples. This thesis is organized into three chapters.The first chapter of my thesis is entitled "Testing and Relaxing Distributional Assumptions on Random Coefficients in Demand Models''. This chapter is co-authored with two fellow graduate students Hippolyte Boucher and Gökçe Gökkoca. We provide a method to test and relax the distributional assumptions on random coefficients in the differentiated products demand model initiated by Berry (1994) and Berry, Levinsohn and Pakes (1995). This model is the workhorse model for demand estimation with market-level data and it uses random coefficients to account for unobserved preference heterogeneity. In this chapter, we provide a formal moment-based specification test on the distribution of random coefficients, which allows researchers to test the chosen specification (for instance normality) without re-estimating the model under a more flexible parametrization. The moment conditions (or equivalently the instruments) chosen for the test are designed to maximize the power of the test when the RC distribution is misspecified. By exploiting the duality between estimation and testing, we show that these instruments can also improve the estimation of the BLP model under a flexible parametrization (here, we consider the case of the Gaussian mixture). Finally, we validate our approach with Monte Carlo simulations and an empirical application using data on car purchases in Germany.The second chapter is entitled: "Moment Inequalities for Entry Games with HeterogeneousTypes". This chapter is coauthored with my advisor Christian Bontemps and Rohit Kumar.We develop new methods to simplify the estimation of entry games when the equilibrium selection mechanism is unrestricted. In particular, we develop an algorithm that allows us to recursively select a relevant subset of inequalities that sharply characterize the set of admissible set of parameters. Then, we propose a way to circumvent the problem of deriving an easy-to-compute and competitive critical value by smoothing the minimum function. In our case, it allows us to obtain a pivotal test statistic that eliminates ``numerically” the non-binding moments. We show that we recover a consistent confidence region by letting the smoothing parameter increase with the sample size. Interestingly, we show that our procedure can easily be adapted to the case with covariates including continuous ones. Finally, we conduct full-scale Monte Carlo simulations to assess the performance of our new estimation procedure.The third chapter is entitled "Identification and Estimation of Incentive Contracts under Asymmetric Information: an application to the French Water Sector". This chapter has its roots in a project Christian Bontemps and David Martimort started many years ago. We develop a Principal-Agent model to represent management contracting for public-service delivery. A firm (the Agent) has private knowledge of its marginal cost of production. The local public authority (the Principal) cares about the consumers' net surplus from consuming the services and the (weighted) firm's profit. Contractual negotiation is modeled as the choice by the privately informed firm within a menu of options determining both the unit-price charged to consumers and the fixed fee. Our theoretical model characterizes optimal contracting in this environment. We then explicitly study the nonparametric identification of the model and perform a semi-parametric estimation on a dataset coming from the 2004 wave of a survey from the French environment Institute
APA, Harvard, Vancouver, ISO, and other styles
4

Decotte, Benjamin. "Identifiabilité structurelle de modèles bond graphs." Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-291.pdf.

Full text
Abstract:
Nous développons dans cette thèse un critère en vue de l'analyse de l'identifiabilité d'une forme particulière de modèle, les bond graphs. Ce critère permet de conclure quant à l'identifiabilité globale ou locale de l'ensemble des paramètres d'un bond graph, ou d'un sous-ensemble de ces paramètres. De plus nous proposons une méthode permettant de discerner l'ensemble des paramètres que l'utilisateur peut chercher à identifier, en fonction de la structure du modèle, et en fonction de ses besoins et capacités techniques de placement de capteurs. Nous présentons aussi une méthode de construction de l'ensemble des bond graphs structurellement identifiables, ainsi candidats à l'identification symbolique de leurs paramètres. Enfin nous appliquons ces méthodes à deux exemples concrets, le comportement d'une cale en polyuréthane et le comportement d'une suspension.
APA, Harvard, Vancouver, ISO, and other styles
5

Duong, Hoài Nghia. "Identification structurelle et paramétrique des systèmes linéaires monovariables et multivariables." Grenoble INPG, 1993. http://www.theses.fr/1993INPG0080.

Full text
Abstract:
L'objectif de ce travail est de developper un algorithme pour identifier en ligne la structure, les parametres et l'erreur d'un modele arx (auto-regressif exogene) des systemes lineaires monovariables et multivariables. L'algorithme propose utilise la technique des variables instrumentales et la mise en uvre est faite a l'aide d'une transformation orthogonale. Lors du developpement de l'algorithme, les aspects suivants ont ete etudies. Dans le cas des systemes a dimension finie perturbes par un bruit stationnaire, un nouveau test de rang est propose pour l'estimation structurelle. Le seuil de zero de la quantite de test est defini sur la base de la distribution statistique obtenue. Dans le cas du bruit non stationnaire, un critere d'identification structurelle est defini en penalisant la complexite du modele. La consistance du critere est etudiee. Une propriete interessante de ce critere est que la fonction de transfert du bruit peut etre variable dans le temps et a dimension infinie. Dans le cas des systemes a dimension infinie, l'identification en parallele des parametres d'un modele nominal et de l'erreur de ce modele est proposee (ceci permet d'ajuster de facon simple le modele nominal en utilisant l'information sur l'erreur de ce modele). Avec un seul passage sur les donnees, cet algorithme peut etre utilise pour des applications en ligne. Dans le cas des systemes a parametres variables dans le temps, un facteur d'oubli est incorpore. La detection des changements abrupts du systeme peut etre obtenue. La validation du modele identifie (par des fonctions d'intercorrelation) est etudiee. Le nombre minimum de fonctions d'intercorrelation qui doivent etre calculees a ete determine. Des simulations monte carlo et des resultats experimentaux sur des systemes reels (une colonne a distiller et un robot souple) sont presentes
APA, Harvard, Vancouver, ISO, and other styles
6

Bariani, Jean-Paul. "Conception et réalisation d'un logiciel de CAO en automatique : identification structurelle et commande PID." Nice, 1988. http://www.theses.fr/1988NICE4175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bariani, Jean-Paul. "Conception et réalisation d'un logiciel de C.A.O. en automatique identification structurelle et commande PID /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376115157.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Jedidi, Safa. "Identification décentralisée des systèmes de grande taille : approches appliquées à la thermique des bâtiments." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S072/document.

Full text
Abstract:
Avec la complexité croissante des systèmes dynamiques qui apparaissent dans l'ingénierie et d'autres domaines de la science, l'étude des systèmes de grande taille composés d'un ensemble de sous-systèmes interconnectés est devenue un important sujet d'attention dans différents domaines, tels que la robotique, les réseaux de transports, les grandes structures spatiales (panneaux solaires, antennes, télescopes,...), les bâtiments,… et a conduit à des problèmes intéressants d'analyse d'identification paramétrique, de contrôle distribué et d'optimisation. L'absence d'une définition universelle et reconnue des systèmes qu'on appelle "grands systèmes", "systèmes complexes", "systèmes interconnectés",..., témoigne de la confusion entre ces différents concepts et la difficulté de définir des limites précises pour tels systèmes. L'analyse de l'identifiabilité et de l'identification de ces systèmes nécessite le traitement de modèles numériques de grande taille, la gestion de dynamiques diverses au sein du même système et la prise en compte de contraintes structurelles (des interconnections,...). Ceci est très compliqué et très délicat à manipuler. Ainsi, ces analyses sont rarement prises en considération globalement. La simplification du problème par décomposition du grand système en sous-problèmes de complexité réduite est souvent la seule solution possible, conduisant l'automaticien à exploiter clairement la structure du système.Cette thèse présente ainsi, une approche décentralisée d'identification des systèmes de grande taille "large scale systems" composés d'un ensemble de sous-systèmes interconnectés. Cette approche est basée sur les propriétés structurelles (commandabilité, observabilité et identifiabilité) du grand système. Cette approche à caractère méthodologique est mise en œuvre sur des applications thermiques des bâtiments. L'intérêt de cette approche est montré à travers des comparaisons avec une approche globale
With the increasing complexity of dynamical systems that appear in engineering and other fields of science, the study of large systems consisting of a set of interconnected subsystems has become an important subject of attention in various areas such as robotics, transport networks, large spacial structures (solar panels, antennas, telescopes, \ldots), buildings, … and led to interesting problems of parametric identification analysis, distributed control and optimization. The lack of a universal definition of systems called "large systems", "complex systems", "interconnected systems", ..., demonstrates the confusion between these concepts and the difficulty of defining clear boundaries for such systems. The analysis of the identifiability and identification of these systems requires processing digital models of large scale, the management of diverse dynamics within the same system and the consideration of structural constraints (interconnections, ...) . This is very complicated and very difficult to handle. Thus, these analyzes are rarely taken into consideration globally. Simplifying the problem by decomposing the large system to sub-problems is often the only possible solution. This thesis presents a decentralized approach for the identification of "large scale systems" composed of a set of interconnected subsystems. This approach is based on the structural properties (controllability, observability and identifiability) of the global system. This methodological approach is implemented on thermal applications of buildings. The advantage of this approach is demonstrated through comparisons with a global approach
APA, Harvard, Vancouver, ISO, and other styles
9

Denis-Vidal, Lilianne. "Identification d'un système biochimique, modélisation et contrôle d'un système de réacteurs." Compiègne, 1993. http://www.theses.fr/1993COMPD640.

Full text
Abstract:
Le premier problème aborde dans ce travail est celui de l'identifiabilité de paramètres cinétiques intervenant dans la vitesse d'une réaction biochimique. Le cadre est non linéaire, deux techniques ont été employées pour conduire cette étude. La linéarisation autour d'un point d'équilibre et le développement en série autour de l'état initial. Nous montrons d'une part que la deuxième technique est la mieux adaptée a notre problème et que d'autre part avec quatre expériences bien choisies tous les paramètres sont structurellement globalement identifiables. Nous traitons ensuite le problème de l'identification numérique par une méthode de moindres carres pondérés pénalisée. Plusieurs poids sont envisages. Enfin nous étudions la précision des résultats obtenus et la possibilité de l'améliorer. Le deuxième problème aborde est celui de l'optimisation d'un système de réacteurs en boucle fermée. Nous modélisons d'abord ce système : un réacteur d'oxydation modélisé par des équations de transport à vitesse constante et dont les deuxièmes membres non linéaires comportent le terme cinétique dont on a identifie les paramètres dans la première partie, et, un réacteur de réduction modélisée par des équations différentielles linéaires. Ensuite nous montrons l'existence, l'unicité et la positivité des solutions de ce modèle. Nous abordons enfin le problème d'optimisation du rendement du système.
APA, Harvard, Vancouver, ISO, and other styles
10

Wang, Ao. "Three essays on microeconometric models of demand and their applications in empirical industrial organisation." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAG003.

Full text
Abstract:
La thèse se compose de trois chapitres qui étudient les modèles microéconométriques de la demande et leurs applications dans l'organisation industrielle empirique.Les deux premiers articles se concentrent sur les modèles de demande de bundles et étudient l'identification et l'estimation sous différentes disponibilités de données. Le premier article est un travail conjoint avec Alessandro Iaria (Université de Bristol) et se concentre sur les situations où les données d'achat au niveau du bundle sont disponibles. Nous présentons de nouveaux résultats d'identification et d'estimation pour un modèle logit mixte de demande de faisceaux. En particulier, nous proposons un nouvel inverse de la demande en présence de complémentarité qui permet de concentrer hors de la fonction de vraisemblance les effets fixes (potentiellement nombreux) spécifiques aux produits de marché, atténuant sensiblement le défi de dimensionnalité inhérent à l'estimation. Pour illustrer l'utilisation de nos méthodes, nous estimons la demande et l'offre dans l'industrie américaine des céréales prêtes à consommer, où le MLE proposé réduit la recherche numérique d'environ 12 000 à 130 paramètres. Nos estimations suggèrent que le fait d'ignorer la complémentarité hicksienne entre différents produits souvent achetés en lots peut entraîner des estimations de la demande et des contrefactuels trompeurs.Le deuxième article se concentre sur les situations où seules des données d'achat agrégées au niveau du produit sont disponibles. Il propose un modèle de demande de Berry, Levinsohn et Pakes (BLP, 1995). Comparé aux modèles BLP de demande de produits uniques, ce modèle ne restreint pas les produits à être des substituts et, notamment, permet des complémentarités hicksiennes entre les produits qui peuvent être choisis conjointement dans un bundle. En s'appuyant sur l'inverse de la demande du premier article, il propose des arguments d'identification constructifs du modèle et un estimateur de la méthode généralisée des moments (GMM) pratiquement utile. En particulier, cet estimateur peut gérer des ensembles de choix potentiellement importants et sa mise en œuvre est simple, essentiellement comme un estimateur BLP standard. Enfin, j'illustre la mise en œuvre pratique des méthodes et j'évalue la demande de céréales et de lait prêts-à-manger (PAM) aux États-Unis. Les estimations de la demande suggèrent que les céréales et le lait PAM sont globalement complémentaires Hicksian et ces complémentarités sont hétérogènes entre les paquets. Ignorer ces complémentarités entraîne des contrefactuels trompeurs.Le troisième article est un travail conjoint avec Xavier d’Haultfoeuille, Philippe Fevrier et Lionel Wilner et porte sur la gestion des revenus. Bien que cette gestion ait considérablement accru la flexibilité dans la façon dont les entreprises fixent les prix, les entreprises imposent toujours des contraintes à leur stratégie de prix. Il existe encore peu de preuves des gains ou des pertes de telles stratégies par rapport à des prix uniformes ou à des stratégies totalement flexibles. Dans cet article, nous quantifions ces gains et pertes et identifions leurs sources sous-jacentes dans le contexte du transport ferroviaire français. Cela est compliqué par la censure à la demande et l'absence de variations de prix exogènes. Nous développons une stratégie d'identification originale sur la demande qui combine les variations temporelles des prix relatifs etles inégalités de moment résultant de la rationalité de base du côté des consommateurs et des faibles conditions d'optimalité de la stratégie de tarification de l'entreprise. Nos résultats suggèrent des gains importants de la gestion des revenus réels par rapport à une tarification uniforme, mais également des pertes substantielles par rapport à la stratégie de tarification optimale. Enfin, nous soulignons le rôle clé de la gestion des revenus pour l'acquisition d'informations lorsque la demande est incertaine
The thesis consists of three chapters that study microeconometric models of demand and their applications in empirical industrial organisation.The first two papers focus on models of demand for bundles and study the identification and estimation under different data availabilities. The first paper is a joint work with Alessandro Iaria (University of Bristol) and focuses on the situations where purchase data at bundle-level is available. We present novel identification and estimation results for a mixed logit model of demand for bundles. In particular, we propose a new demand inverse in the presence of complementarity that enables to concentrate out of the likelihood function the (potentially numerous) market-product specific fixed effects, substantially alleviating the challenge of dimensionality inherent in estimation. To illustrate the use of our methods, we estimate demand and supply in the US ready-to-eat cereal industry, where the proposed MLE reduces the numerical search from approximately 12000 to 130 parameters. Our estimates suggest that ignoring Hicksian complementarity among different products often purchased in bundles may result in misleading demand estimates and counterfactuals.The second paper focuses on the situations where only aggregate purchase data at product-level is available. It proposes a Berry, Levinsohn and Pakes (BLP, 1995) model of demand for bundles. Compared to BLP models of demand for single products, this model does not restrict products to be substitutes and, notably, allows for Hicksian complementarities among products that can be jointly chosen in a bundle. Leveraging the demand inverse of the first paper, it proposes constructive identification arguments of the model and a practically useful Generalized Method of Moments (GMM) estimator. In particular, this estimator can handle potentially large choice sets and its implementation is straightforward, essentially as a standard BLP estimator. Finally, I illustrate the practical implementation of the methods and estimate the demand for Ready-To-Eat (RTE) cereals and milk in the US. The demand estimates suggest that RTE cereals and milk are overall Hicksian complementary and these complementarities are heterogeneous across bundles. Ignoring such complementarities results in misleading counterfactuals.The third paper is a joint work with Xavier d’Haultfoeuille, Philippe Fevrier and Lionel Wilner and focuses on revenue management. Despite that this management has greatly increased flexibility in the way firms set prices, firms usually still impose constraints on their pricing strategy. There is yet scarce evidence on the gains or losses of such strategies compared to uniform pricing or fully flexible strategies. In this paper, we quantify these gains and losses and identify their underlying sources in the context of French railway transportation. This is complicated by the censoring on demand and the absence of exogenous price variations. We develop an original identification strategy on the demand that combines temporal variations in relative prices andmoment inequalities stemming from basic rationality on consumers’ side and weak optimality conditions on the firm’s pricing strategy. Our results suggest significant gains of the actual revenue management compared to uniform pricing, but also substantial losses compared to the optimal pricing strategy. Finally, we highlight the key role of revenue management for acquiring information when demand is uncertain
APA, Harvard, Vancouver, ISO, and other styles
11

Stefan, Diana. "Structural and parametric identification of bacterial regulatory networks." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM019/document.

Full text
Abstract:
Les technologies expérimentales à haut débit produisent de grandes quantités de données sur les niveaux d'expression des gènes dans les bactéries à l'état d'équilibre ou lors des transitions de croissance.Un défi important dans l'interprétation biologique de ces données consiste à en déduire la topologie du réseau de régulation ainsi que les fonctions de régulation quantitatives des gènes.Un grand nombre de méthodes d'inférence a été proposé dans la littérature. Ces méthodes ont été utilisées avec succès dans une variété d'applications, bien que plusieurs problèmes persistent.Nous nous intéressons ici à l'amélioration de deux aspects des méthodes d'inférence.Premièrement, les données transcriptomiques reflètent l'abondance de l'ARNm, tandis que, le plus souvent, les composants régulateurs sont les protéines codées par les ARNm.Bien que les concentrations de l'ARNm et de protéines soient raisonnablement corrélées à l'état stationnaire, cette corrélation devient beaucoup moins évidente dans les données temporelles acquises lors des transitions de croissance à cause des demi-vies très différentes des protéines et des ARNm.Deuxièmement, la dynamique de l'expression génique n'est pas uniquement contrôlée par des facteurs de transcription et d'autres régulateurs spécifiques, mais aussi par des effets physiologiques globaux qui modifient l'activité de tous les gènes. Par exemple, les concentrations de l'ARN polymérase (libre) et les concentrations des ribosomes (libres) varient fortement avec le taux de croissance. Nous devons donc tenir compte de ces effets lors de la reconstruction d'un réseau de régulation à partir de données d'expression génique.Nous proposons ici une approche expérimentale et computationnelle combinée pour répondre à ces deux problèmes fondamentaux dans l'inférence de modèles quantitatifs de promoteurs bactériens à partir des données temporelles d'expression génique.Nous nous intéressons au cas où la dynamique de l'expression génique est mesurée in vivo et en temps réel par l'intermédiaire de gènes rapporteurs fluorescents. Notre approche d'inférence de réseaux de régulation tient compte des différences de demi-vie entre l'ARNm et les protéines et prend en compte les effets physiologiques globaux.Lorsque les demi-vies des protéines sont connues, les modèles expérimentaux utilisés pour dériver les activités des gènes à partir de données de fluorescence sont intégrés pour estimer les concentrations des protéines.L'état physiologique global de la cellule est estimé à partir de l'activité d'un promoteur de phage, dont l'expression n'est contrôlée par aucun des facteurs de transcription et ne dépend que de l'activité de la machinerie d'expression génique.Nous appliquons l'approche à un module central dans le réseau de régulation contrôlant la motilité et le système de chimiotactisme chez Escherichia coli.Ce module est composé des gènes FliA, FlgM et tar.FliA est un facteur sigma qui dirige l'ARN polymérase vers les opérons codant pour des composants de l'assemblage des flagelles.Le troisième composant du réseau, tar, code pour la protéine récepteur chimiotactique de l'aspartate, Tar, et est directement transcrit par FliA associé à l' holoenzyme ARN polymérase. Le module FliA-FlgM est particulièrement bien adapté pour l'étude des problèmes d'inférence considérés ici, puisque le réseau a été bien étudié et les démivies des protéines jouent un rôle important dans son fonctionnement.Nos résultats montrent que, pour la reconstruction fiable de réseaux de régulation transcriptionelle chez les bactéries, il est nécessaire d'inclure les effets globaux dans le modèle de réseau et d'en déduire de manière explicite les concentrations des protéines à partir des profils d'expression observés, car la demi-vie de l'ARNm et des protéines sont très différentes. Notre approche reste généralement applicable à une grande variété de problèmes d'inférence de réseaux et nous discutons les limites et les extensions possibles de la méthode
High-throughput technologies yield large amounts of data about the steady-state levels and the dynamical changes of gene expression in bacteria. An important challenge for the biological interpretation of these data consists in deducing the topology of the underlying regulatory network as well as quantitative gene regulation functions from such data. A large number of inference methods have been proposed in the literature and have been successful in a variety of applications, although several problems remain. We focus here on improving two aspects of the inference methods. First, transcriptome data reflect the abundance of mRNA, whereas the components that regulate are most often the proteins coded by the mRNAs. Although the concentrations of mRNA and protein correlate reasonably during steady-state growth, this correlation becomes much more tenuous in time-series data acquired during growth transitions in bacteria because of the very different half-lives of proteins and mRNA. Second, the dynamics of gene expression is not only controlled by transcription factors and other specific regulators, but also by global physiological effects that modify the activity of all genes. For example, the concentrations of (free) RNA polymerase and the concentration of ribosomes vary strongly with growth rate. We therefore have to take into account such effects when trying to reconstruct a regulatory network from gene expression data. We propose here a combined experimental and computational approach to address these two fundamental problems in the inference of quantitative models of the activity of bacterial promoters from time-series gene expression data. We focus on the case where the dynamics of gene expression is measured in vivo and in real time by means of fluorescent reporter genes. Our network reconstruction approach accounts for the differences between mRNA and protein half-lives and takes into account global physiological effects. When the half-lives of the proteins are available, the measurement models used for deriving the activities of genes from fluorescence data are integrated to yield estimates of protein concentrations. The global physiological state of the cell is estimated from the activity of a phage promoter, whose expression is not controlled by any transcription factor and depends only on the activity of the transcriptional and translational machinery. We apply the approach to a central module in the regulatory network controlling motility and the chemotaxis system in Escherichia coli. This module comprises the FliA, FlgM and tar genes. FliA is a sigma factor that directs RNA polymerase to operons coding for components of the flagellar assembly. The effect of FliA is counteracted by the antisigma factor FlgM, itself transcribed by FliA. The third component of the network, tar, codes for the aspartate chemoreceptor protein Tar and is directly transcribed by the FliA-containing RNA polymerase holoenzyme. The FliA-FlgM module is particularly well-suited for studying the inference problems considered here, since the network has been well-studied and protein half-lives play an important role in its functioning. We stimulated the FliA-FlgM module in a variety of wild-type and mutant strains and different growth media. The measured transcriptional response of the genes was used to systematically test the information required for the reliable inference of the regulatory interactions and quantitative predictive models of gene regulation. Our results show that for the reliable reconstruction of transcriptional regulatory networks in bacteria it is necessary to include global effects into the network model and explicitly deduce protein concentrations from the observed expression profiles. Our approach should be generally applicable to a large variety of network inference problems and we discuss limitations and possible extensions of the method
APA, Harvard, Vancouver, ISO, and other styles
12

Boubacar, Mainassara Yacouba. "Estimation, validation et identification des modèles ARMA faibles multivariés." Phd thesis, Université Charles de Gaulle - Lille III, 2009. http://tel.archives-ouvertes.fr/tel-00452032.

Full text
Abstract:
Dans cette thèse nous élargissons le champ d'application des modèles ARMA (AutoRegressive Moving-Average) vectoriels en considérant des termes d'erreur non corrélés mais qui peuvent contenir des dépendances non linéaires. Ces modèles sont appelés des ARMA faibles vectoriels et permettent de traiter des processus qui peuvent avoir des dynamiques non linéaires très générales. Par opposition, nous appelons ARMA forts les modèles utilisés habituellement dans la littérature dans lesquels le terme d'erreur est supposé être un bruit iid. Les modèles ARMA faibles étant en particulier denses dans l'ensemble des processus stationnaires réguliers, ils sont bien plus généraux que les modèles ARMA forts. Le problème qui nous préoccupera sera l'analyse statistique des modèles ARMA faibles vectoriels. Plus précisément, nous étudions les problèmes d'estimation et de validation. Dans un premier temps, nous étudions les propriétés asymptotiques de l'estimateur du quasi-maximum de vraisemblance et de l'estimateur des moindres carrés. La matrice de variance asymptotique de ces estimateurs est d'une forme "sandwich", et peut être très différente de la variance asymptotique obtenue dans le cas fort. Ensuite, nous accordons une attention particulière aux problèmes de validation. Dans un premier temps, en proposant des versions modifiées des tests de Wald, du multiplicateur de Lagrange et du rapport de vraisemblance pour tester des restrictions linéaires sur les paramètres de modèles ARMA faibles vectoriels. En second, nous nous intéressons aux tests fondés sur les résidus, qui ont pour objet de vérifier que les résidus des modèles estimés sont bien des estimations de bruits blancs. Plus particulièrement, nous nous intéressons aux tests portmanteau, aussi appelés tests d'autocorrélation. Nous montrons que la distribution asymptotique des autocorrelations résiduelles est normalement distribuée avec une matrice de covariance différente du cas fort (c'est-à-dire sous les hypothèses iid sur le bruit). Nous en déduisons le comportement asymptotique des statistiques portmanteau. Dans le cadre standard d'un ARMA fort, il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un chi-deux. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de chi-deux. Cette distribution peut être très différente de l'approximation chi-deux usuelle du cas fort. Nous proposons donc des tests portmanteau modifiés pour tester l'adéquation de modèles ARMA faibles vectoriels. Enfin, nous nous sommes intéressés aux choix des modèles ARMA faibles vectoriels fondé sur la minimisation d'un critère d'information, notamment celui introduit par Akaike (AIC). Avec ce critère, on tente de donner une approximation de la distance (souvent appelée information de Kullback-Leibler) entre la vraie loi des observations (inconnue) et la loi du modèle estimé. Nous verrons que le critère corrigé (AICc) dans le cadre des modèles ARMA faibles vectoriels peut, là aussi, être très différent du cas fort.
APA, Harvard, Vancouver, ISO, and other styles
13

Corlay, Trujillo Monica Maria. "Identification / égalisation aveugle spatio-temporelles : combinaison des approches structurelles et des approches d'ordre supérieur." Paris, ENST, 2001. http://www.theses.fr/2001ENST0004.

Full text
Abstract:
Dans ce travail, on s'intéresse à l'analyse et l'amélioration des performances des algorithmes d'égalisation aveugle. D'abord, on considère un système monovoie. Il est bien connu que l'on ne peut pas identifier la phase du système en utilisant seulement des statistiques d'ordre deux (Sos). On a donc besoin de statistiques d'ordre supérieur (hos) afin d'égaliser un tel système. Mais la plupart des critères hos présentent des minima locaux et les algorithmes adaptatifs peuvent donc converger vers un minimum local stable, d'où l'intérêt d'utiliser des fonctions de cout convexes. La première partie de notre étude porte sur la convexité. On présente une analyse de deux critères : celui de Godard (cma) et celui de shtrom-fan. L'analyse montre que, sous certaines conditions, les deux critères sont convexes par régions dans le système combine et dans le domaine correspondant de l'égaliseur. La deuxième partie de ce travail est consacrée à l'étude du modèle multivoie, qui exploite la diversité spatiale et temporelle. Grace aux propriétés structurelles de ce système, et sous la condition de diversité des canaux, l'identification peut se faire en utilisant seulement les Sos. On propose la combinaison des approches structurelles et des approches d'ordre supérieur, en exploitant les propriétés structurelles et les propriétés statistiques des méthodes d'égalisation aveugle afin d'améliorer les performances des algorithmes. On propose en premier lieu un nouveau critère résultant de la combinaison des méthodes hos et Sos. Une deuxième idée est l'introduction d'une connaissance a priori sur le signal d'entrée dans la méthode Sos. Les simulations montrent, pour les deux approches proposées, une amélioration des performances par rapport à celles des algorithmes originaux. Finalement, afin de mieux comprendre le fonctionnement de la méthode Sos choisie, notre étude s'est portée sur une première caractérisation des points stationnaires.
APA, Harvard, Vancouver, ISO, and other styles
14

Corlay, Trujillo Monica Maria. "Identification-égalisation aveugle spatio-temporelles : combinaison des approches structurelles et des approches d'ordre supérieur /." Paris : École nationale supérieure des télécommunications, 2002. http://catalogue.bnf.fr/ark:/12148/cb38838485q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Vincent, Rémy. "Identification passive en acoustique : estimateurs et applications au SHM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT020/document.

Full text
Abstract:
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome
Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network
APA, Harvard, Vancouver, ISO, and other styles
16

Laporte, Pierre. "Conception assistée par ordinateur en automatique : un logiciel d'identification." Grenoble INPG, 1985. http://www.theses.fr/1985INPG0135.

Full text
Abstract:
On decrit les logiciels qui permettent de realiser de maniere interactive toutes les phases de conception d'une commande: simulation, modelisation, identification, synthese du regulateur. Les differents logiciels diffuses dans le monde sont ensuite compares. On propose ensuite la realisation d'un logiciel d'identification rassemblant dans une approche c. A. O. Les methodes les plus performantes d'identification des modeles decrits sous forme de transfert, et son insertion dans le systeme cao sirena. On conclue sur les developpements attendus de ces logiciels de cao avec l'introduction des techniques de l'intelligence artificielle
APA, Harvard, Vancouver, ISO, and other styles
17

Feytout, Benjamin. "Commande crone appliquée à l'optimisation de la production d'une éolienne." Thesis, Bordeaux 1, 2013. http://www.theses.fr/2014BOR14946/document.

Full text
Abstract:
Les études, menées en collaboration entre la société VALEOL et le laboratoire IMS, proposent des solutions pour optimiser la production et le fonctionnement d'une éolienne. Il s’agit de travailler sur les lois de commande du système ou des sous-systèmes en utilisant la commande CRONE, répondant à un besoin de robustesse. Chaque étude met en avant des aspects de modélisation, d’identification et de synthèse de lois de commande avant mises en application au travers de simulations ou d’essais sur modèles réduits et taille réelle.Le chapitre 1 donne une vision d’ensemble des problématiques traitées dans ce manuscrit, à l’aide d’états de l’art et de remise dans le contexte économique et industriel de 2013.Le chapitre 2 introduit la commande CRONE pour la synthèse de régulateurs robustes. Cette méthodologie est utilisée pour réaliser l’asservissement de la vitesse de rotation d’une éolienne à vitesse variable, présentant une architecture innovante avec un variateur de vitesse mécanique et génératrice synchrone.Le chapitre 3 établit la comparaison de trois nouveaux critères d’optimisation pour la méthodologie CRONE. Le but est de réduire sa complexité et de faciliter sa manipulation par tout utilisateur. Les résultats sur les différents critères sont obtenus par simulations sur un exemple académique, puis sur un modèle d’éolienne de type MADA.Le chapitre 4 porte sur la réduction des charges structurelles transmises par le vent à l’éolienne. Il est question d’une amélioration du contrôle de l’angle de pitch par action indépendante sur chaque pale en fonction de la position du rotor ou encore des perturbations liées au ventLe chapitre 5 est consacré à la conception d’un système d’antigivrage et dégivrage d’une pale dans le cadre d’un projet Aquitain. Après modélisation et identification du procédé, la commande CRONE est utilisée pour réguler la température d’une peinture polymère chauffante sous alimentation électrique disposée sur les pales. L’étude est complétée par la mise en place d’un observateur pour la détection de présence de givre
The research studies, in collaboration with VALEOL and IMS laboratory, propose several solutions to optimize the production and the efficiency of a wind turbine. The general theme of the work is based on control laws of the system or subsystems using the CRONE robust design. Each part highlights aspects of modeling, system identification and design before simulations or tests of scale and full size models. Chapter 1 provides an overview of the issues discussed in this manuscript, using states of the art and precisions on the industrial and economic context of 2013.Chapter 2 introduces the CRONE command for robust design. It is used to achieve the control of the rotation speed of a variable speed wind turbine, with an innovative architecture - mechanical variable speed solution and synchronous generator.Chapter 3 makes a comparison of three new optimization criteria for CRONE design. The aim is to reduce the methodology complexity and to facilitate handling by any user. The results are obtained through simulations on an academic example, then with a DFIG wind turbine model. Chapter 4 focuses on the reduction of structural loads transmitted by the wind on the turbine. It is about better control of the pitch angle by individual pitch control, depending on the rotor position or wind disturbances.Chapter 5 deals with the design of an anti-icing/de-icing system for blades. After the modeling and identification steps, the CRONE design is used to control the temperature of a heating coating disposed on the blades. An observer is finally designed to detect the presence of ice
APA, Harvard, Vancouver, ISO, and other styles
18

Alkhoury, Ziad. "Minimality, input-output equivalence and identifiability of LPV systems in state-space and linear fractional representations." Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2319/document.

Full text
Abstract:
Dans cette thèse, plusieurs concepts importants liés à la théorie de la réalisation des modèles linéaires à paramètres variants (LPV) sont étudiés.Tout d’abord, nous abordons le problème de l’identifiabilité des modèles LPV affines (ALPV). Une nouvelle condition suffisante et nécessaire est introduite afin de garantir l’identifiabilité structurelle pour les paramétrages ALPV. L’identifiabilité de cette classe de paramétrages est liée à l’absence d’isomorphismes liant deux représentations d’état LPV lorsque deux modèles LPV correspondant à différentes valeurs des variables de séquencement sont considérés. Nous présentons ainsi une condition suffisante et nécessaire pour l’identifiabilité structurelle locale, et une condition suffisante pour l’identifiabilité structurelle (globale) qui sont toutes deux fonction du rang d’une matrice définie par l’utilisateur. Ces dernières conditions permettent la vérification de l’identifiabilité structurelle des modèles ALPV.Ensuite, étant donné que les techniques d’identification dites locales sont parfois inévitables, nous fournissons une expression analytique de la borne supérieure de l’erreur de comportements entrées-sorties de deux modèles LPV équivalents localement. Cette erreur se révèle être une fonction de (i) la vitesse de changement du signal de séquencement et (ii) l’écart entre les bases cohérentes de deux modèles LPV. En particulier, la différence entre les sorties des deux modèles peut être arbitrairement réduite en choisissant un signal de séquencement qui varie assez lentement.Enfin, nous présentons et étudions des propriétés importantes de la transformation des représentations d’état ALPV en Représentations Linéaires Fractionnelles (LFR). Plus précisément, nous montrons que (i) les représentations ALPV minimales conduisent à des LFR minimales, et vice versa, (ii) le comportement entrée-sortie de la représentation ALPV détermine de manière unique le comportement entrée-sortie de la LFR résultante, (iii) les modèles ALPV structurellement identifiables fournissent des LFRs structurellement identifiables et vice versa. Nous caractérisons ensuite les LFRs qui correspondent á des modèles ALPV équivalents basés sur leurs applications entrées-sorties. Comme illustré tout au long du manuscrit, ces résultats ont des conséquences importantes pour l’identification et la commande des systèmes LPV
In this thesis, important concepts related to the identification of Linear Parameter-Varying (LPV) systems are studied.First, we tackle the problem of identifiability of Affine-LPV (ALPV) state-space parametrizations. A new sufficient and necessary condition is introduced in order to guarantee the structural identifiability for ALPV parameterizations. The identifiability of this class of parameterizations is related to the lack of state-space isomorphisms between any two models corresponding to different scheduling parameter values. In addition, we present a sufficient and necessary condition for local structural identifiability, and a sufficient condition for (global) structural identifiability which are both based on the rank of a model-based matrix. These latter conditions allow systematic verification of structural identifiability of ALPV models. Moreover, since local identification techniques are inevitable in certain applications, it is thus a priority to study the discrepancy between different LPV models obtained using different local techniques. We provide an analytic error bound on the difference between the input-output behaviors of any two LPV models which are frozen equivalent. This error bound turns out to be a function of both (i) the speed of the change of the scheduling signal and (ii) the discrepancy between the coherent bases of the two LPV models. In particular, the difference between the outputs of the two models can be made arbitrarily small by choosing a scheduling signal which changes slowly enough.Finally, we introduce and study important properties of the transformation of ALPV statespace representations into Linear Fractional Representations (LFRs). More precisely, we show that (i) state minimal ALPV representations yield minimal LFRs, and vice versa, (ii) the inputoutput behavior of the ALPV representation determines uniquely the input-output behavior of theresulting LFR, (iii) structurally identifiable ALPV models yield structurally identifiable LFRs, and vice versa. We then characterize LFRs which correspond to equivalent ALPV models based on their input-output maps. As illustrated all along the manuscript, these results have important consequences for identification and control of LPV systems
APA, Harvard, Vancouver, ISO, and other styles
19

Méango, Natoua Romuald. "Analyse en identification partielle de la décision d'émigrer des étudiants africains." Thèse, 2013. http://hdl.handle.net/1866/10561.

Full text
Abstract:
La migration internationale d’étudiants est un investissement couteux pour les familles dans beaucoup de pays en voie de développement. Cependant, cet investissement est susceptible de générer des bénéfices financiers et sociaux relativement importants aux investisseurs, tout autant que des externalités pour d’autres membres de la famille. Cette thèse s’intéresse à deux aspects importants de la migration des étudiants internationaux : (i) Qui part? Quels sont les déterminants de la probabilité de migration? (ii) Qui paie? Comment la famille s’organise-t-elle pour couvrir les frais de la migration? (iii) Qui y gagne? Ce flux migratoire est-il au bénéfice du pays d’origine? Entreprendre une telle étude met le chercheur en face de défis importants, notamment, l’absence de données complètes et fiables; la dispersion géographique des étudiants migrants en étant la cause première. La première contribution importante de ce travail est le développement d’une méthode de sondage en « boule de neige » pour des populations difficiles à atteindre, ainsi que d’estimateurs corrigeant les possibles biais de sélection. A partir de cette méthodologie, j’ai collecté des données incluant simultanément des étudiants migrants et non-migrants du Cameroun en utilisant une plateforme internet. Un second défi relativement bien documenté est la présence d’endogénéité du choix d’éducation. Nous tirons avantage des récents développements théoriques dans le traitement des problèmes d’identification dans les modèles de choix discrets pour résoudre cette difficulté, tout en conservant la simplicité des hypothèses nécessaires. Ce travail constitue l’une des premières applications de cette méthodologie à des questions de développement. Le premier chapitre de la thèse étudie la décision prise par la famille d’investir dans la migration étudiante. Il propose un modèle structurel empirique de choix discret qui reflète à la fois le rendement brut de la migration et la contrainte budgétaire liée au problème de choix des agents. Nos résultats démontrent que le choix du niveau final d’éducation, les résultats académiques et l’aide de la famille sont des déterminants importants de la probabilité d’émigrer, au contraire du genre qui ne semble pas affecter très significativement la décision familiale. Le second chapitre s’efforce de comprendre comment les agents décident de leur participation à la décision de migration et comment la famille partage les profits et décourage le phénomène de « passagers clandestins ». D’autres résultats dans la littérature sur l’identification partielle nous permettent de considérer des comportements stratégiques au sein de l’unité familiale. Les premières estimations suggèrent que le modèle « unitaire », où un agent représentatif maximise l’utilité familiale ne convient qu’aux familles composées des parents et de l’enfant. Les aidants extérieurs subissent un cout strictement positif pour leur participation, ce qui décourage leur implication. Les obligations familiales et sociales semblent expliquer les cas de participation d’un aidant, mieux qu’un possible altruisme de ces derniers. Finalement, le troisième chapitre présente le cadre théorique plus général dans lequel s’imbriquent les modèles développés dans les précédents chapitres. Les méthodes d’identification et d’inférence présentées sont spécialisées aux jeux finis avec information complète. Avec mes co-auteurs, nous proposons notamment une procédure combinatoire pour une implémentation efficace du bootstrap aux fins d’inférences dans les modèles cités ci-dessus. Nous en faisons une application sur les déterminants du choix familial de soins à long terme pour des parents âgés.
International migration of students is a costly investment for family units in many developing countries. However, it might yield substantial financial and social return for the investors, as well as externalities for other family members. Furthermore, when these family decisions aggregate at the country-level, they affect the stock of human capital available to the origin country. This thesis addresses primarily two aspects of international student migration: (i) Who goes? What are the determinants of the probability of migration? (ii) Who pays? How does the family organize to bear the cost of the migration? Engaging in this study, one faces the challenge of data limitation, a direct consequence of the geographical dispersion of the population of interest. The first important contribution of this work is to provide a new snowball sampling methodology for hard-to-reach population, along with estimators to correct selection-biases. I collected data which include both migrant and non-migrant students from Cameroon, using an online-platform. A second challenge is the well-documented problem of endogeneity of the educational attainment. I take advantage of recent advances in the treatment of identification problems in discrete choice models to solve this issue while keeping assumptions at a low level. In particular, validity of the partial identification methodology does not rest on the existence of an instrument. To the best of my knowledge, this is the first empirical application of this methodology to development related issues. The first chapter studies the decision made by a family to invest in student. I propose an empirical structural decision model which reflects the importance of both the return of the investment and the budgetary constraint in agent choices. Our results show that the choice of level of education, the help of the family and academic results in secondary school are significant determinant of the probability to migrate, unlike the gender which does not seem to play any role in the family decision. The objective of the second chapter is to understand how agents decide to be part of the migration project and how the family organizes itself to share profits and discourage free riding-behavior. Further results on partial identification for games of incomplete information allow us to consider strategic behavior of family. My estimation suggests that models with a representative individual suit only families which consist of parent and child, but are rejected when a significant extended family member is introduced. Helpers incur a non-zero cost of participation that discourages involvement in the migration process. Kinship obligations and not altruism appears as the main reason of participation. Finally, the third chapter presents the more general theoretical framework in which my models are imbedded. The method presented is specialized to infinite games of complete information, but is of interest for application to the empirical analysis of instrumental variable models of discrete choice (Chapter 1), cooperative and non-cooperative games (Chapter 2), as well as revealed preference analysis. With my co-authors, we propose an efficient combinatorial bootstrap procedure for inference in games of complete information that runs in linear computing time and an application to the determinants of long term elderly care choices.
APA, Harvard, Vancouver, ISO, and other styles
20

Doko, Tchatoka Sabro Firmin. "Exogeneity, weak identification and instrument selection in econometrics." Thèse, 2010. http://hdl.handle.net/1866/3886.

Full text
Abstract:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
The last decade shows growing interest for the so-called weak instruments problems in the econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory variables. More generally, these can be viewed as situations where model parameters are not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio and Lagrange multiplier criteria in structural models - have non-standard distributions and often depend heavily on nuisance parameters. Several empirical studies including the estimation of returns to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982, 1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira (2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference. However, little is known about the quality of these procedures when the instruments are invalid or both weak and invalid. This raises the following question: what happens to inference procedures when some instruments are endogenous or both weak and endogenous? In particular, what happens if an invalid instrument is added to a set of valid instruments? How robust are these inference procedures to instrument endogeneity? Do alternative inference procedures behave differently? If instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting "good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection procedure which will be valid even in presence of weak identification? This thesis focuses on structural models and answers these questions through four chapiters. The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with or without weak instruments. First, when the level of instrument endogeneity is fixed (does not depend on the sample size), we show that all these procedures are in general consistent against the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest), whether the instruments are "strong" or "weak". We also describe situations where this consistency may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral chi-square distributions with or without weak instruments, and describe situations where the non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of valid instruments (despite the presence of invalid instruments). The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH) specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis (power), including when identification is deficient or weak (weak instruments). Our finite-sample analysis provides several new insights and extensions of earlier procedures. The characterization of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such tests are typically robust to weak instruments (level is controlled). Furthermore, we provide a characterization of the power of the tests, which clearly exhibits factors which determine power. We show that DWH-tests have no power when all instruments are weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments are weak (a case of little practical interest). Our asymptotic distributional theory under weaker assumptions confirms the finite-sample theory. Moreover, we present simulation evidence indicating: (1) over a wide range cases, including weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance compared with usual IV estimator. We illustrate our theoretical results through simulation experiment and two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)] to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important challenge in econometrics. This problem occurs in many applied works. For example, in the well know wage model, one should like to assess if mother’s education is exogenous without imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of the constructed instrument on the basis of geographical characteristics for the trade share is often questioned and needs to be tested without constraining trade share and the other variables. Standard exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve such problems. A potential cure for dealing with partial exogeneity is the use of the generalized linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of model errors and it is not clear how robust is this test to non-gaussian errors. We develop in this chapter, a modified version of earlier procedure which is valid even when model errors are not normally distributed. We present simulation evidence indicating that when identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors. Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a GW-test is used in the first stage to decide which variables should be instruments and which ones are valid instruments. We illustrate our theoretical results through two empirical applications: the well known wage equation and the returns to scale in electricity supply. The results show that the GW-tests cannot reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for estimating the returns to scale. The fourth chapter develops identification-robust inference for the covariances between errors and regressors of an IV regression. The results are then applied to develop partial exogeneity tests and partial IV pretest-estimators which are more efficient than usual IV estimator. When more than one stochastic explanatory variables are involved in the model, it is often necessary to determine which ones are independent of the disturbances. This problem arises in many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to assess whether the interest rate is exogenous without imposing additional assumptions on inflation rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW) procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as testing linear restrictions on covariances assumes that the available instruments are strong. When the instruments are weak, the GW-test is in general size distorted. As a result, its application in models where instruments are possibly weak–returns to education, trade and economic growth, life cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may be misleading. To answer this problem, we develop a finite-and large-sample valid procedure for building confidence sets for covariances allowing for the presence of weak instruments. We provide analytic forms of the confidence sets and characterize necessary and sufficient conditions under which they are bounded. Moreover, we propose two new pretest-estimators of structural parameters based on our above procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore, this can be viewed as a variable selection method where the projection-based techniques is used to decide which variables should be instrumented and which ones are valid instruments. We illustrate our results through two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. The results show unbounded confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the literature [Bound (1995)].
APA, Harvard, Vancouver, ISO, and other styles
21

Kemoe, Laurent. "Three essays in macro-finance, international economics and macro-econometrics." Thèse, 2017. http://hdl.handle.net/1866/19308.

Full text
Abstract:
This thesis brings new evidence on different strands of the literature in macro-finance, international economics and macroeconometrics. The first two chapters combine both theoretical models and empirical techniques to deepen the analysis of important economic phenomena such as the effects of economic policy uncertainty on financial markets, and convergence between emerging market economies and advanced economies on these markets. The third chapter of the thesis, which is co-authored with Hafedh Bouakez, contributes to the literature on the identification of news shocks about future productivity. In the first chapter, I study the effect of monetary and fiscal policy uncertainty on nominal U.S. government bond yields and premiums. I use a New-Keynesian Dynamic Stochastic General Equilibrium model featuring recursive preferences, and both real and nominal rigidities. Policy uncertainty in the DSGE model is defined as a mean-preserving spread of the policy shock distributions. My results show that: (i) When the economy is subject to unpredictable shocks to the volatility of policy instruments, the level of the median yield curve is lower, its slope increases and risk premiums decrease relative to an economy with no stochastic volatility. This negative effect on the level of yields and premiums is due to the asymmetric impact of positive versus negative shocks; (ii) A typical policy risk shock increases yields at all maturities. This is because the fall in yields triggered by higher demand for bonds by households, in order to hedge against higher predicted consumption volatility, is outweighed by the increase in yields due to higher inflation risk premiums. Finally, I use several empirical measures economic policy uncertainty in a structural VAR model to show that the above effects of policy risk shocks on yields are consistent empirical evidence. Chapter 2 looks at the market for government bonds in 12 advanced economies and 8 emerging market economies, during the period 1999-2012, and consider the question of whether or not there has been any convergence of risk between emerging market and advanced economies. I distinguish between default risk and other types of risk, such as inflation, liquidity and exchange rate risk. I make the theoretical case that forward risk premium differentials can be used to distinguish default risk and other risks. I then construct forward risk premium differentials and use these to make the empirical case that there has been little convergence associated with the other types of risk. I also show that differences in countries' macroeconomic fundamentals and political risk play an important role in explaining the large "non-default" risk differentials observed between emerging and advanced economies. Chapter 3 proposes a novel strategy to identify anticipated and unanticipated technology shocks, which leads to results that are consistent with the predictions of conventional new-Keynesian models. It shows that the failure of many empirical studies to generate consistent responses to these shocks is due to impurities in the available TFP series, which lead to an incorrect identification of unanticipated technology shocks---whose estimated effects are inconsistent with the interpretation of these disturbances as supply shocks. This, in turn, contaminates the identification of news shocks. My co-author, Hafedh Bouakez, and I propose an agnostic identification strategy that allows TFP to be affected by both technological and non-technological shocks, and identifies unanticipated technology shocks via sign restrictions on the response of inflation. The results show that the effects of both surprise TFP shocks and news shocks are generally consistent with the predictions of standard new-Keynesian models. In particular, the inflation puzzle documented in previous studies vanishes under the novel empirical strategy.
Cette thèse présente de nouveaux résultats sur différentes branches de la littérature en macro-finance, économie internationale et macro-économétrie. Les deux premiers chapitres combinent des modèles théoriques et des techniques empiriques pour approfondir l’étude de phénomènes économiques importants tels que les effets de l’incertitude liée aux politiques économiques sur les marchés financiers et la convergence entre les pays émergents et les pays avancés sur ces marchés. Le troisième chapitre, qui est le fruit d’une collaboration avec Hafedh Bouakez, contribue à la littérature sur l’identification des chocs anticipés sur la productivité future. Dans le premier chapitre, j’étudie l’effet de l’incertitude relative aux politiques monétaire et fiscale sur les rendements et les primes de risque associés aux actifs nominaux du gouvernement des États-Unis. J’utilise un modèle d’équilibre stochastique et dynamique de type néo-Keynesien prenant en compte des préférences récursives des agents et des rigidités réelles et nominales. En utilisant un modèle VAR structurel. L’incertitude relative aux politiques économiques est définie comme étant une expansion de la distribution des chocs de politique, expansion au cours de laquelle la moyenne de la distribution reste inchangée. Mes résultats montrent que : (i) Lorsque l’économie est sujette à des chocs imprévisibles sur la volatilité des instruments de politique, le niveau médian de la courbe des rendements baisse de 8,56 points de base, sa pente s’accroît de 13,5 points de base et les primes de risque baissent en moyenne de 0.21 point de base. Cet effet négatif sur le niveau de rendements et les primes de risque est dû à l’impact asymétrique des chocs de signes opposés mais de même amplitude; (ii) Un choc positif à la volatilité des politiques économiques entraîne une hausse des rendements pour toutes les durées de maturité. Cet effet s’explique par le comportement des ménages qui, à la suite du choc, augmentent leur demande de bons dans le but de se prémunir contre les fortes fluctuations espérées au niveau de la consommation, ce qui entraîne des pressions à la baisse sur les rendements. De façon simultanée, ces ménages requièrent une hausse des taux d’intérêt en raison d’une espérance d’inflation future plus grande. Les analyses montrent que le premier effet est dominant, entraînant donc la hausse des rendements observée. Enfin, j’utilise plusieurs mesures empiriques d’incertitude de politiques économiques et un modèle VAR structurel pour montrer les résultats ci-dessus sont conformes avec les faits empiriques. Le Chapitre 2 explore le marché des bons du gouvernement de 12 pays avancés et 8 pays émergents, pendant la période 1999-2012, et analyses la question de savoir s’il y a eu une quelconque convergence du risque associé à ces actifs entre les deux catégories de pays. Je fais une distinction entre risque de défaut et autres types de risque, comme ceux liés au risque d’inflation, de liquidité ou de change. Je commence par montrer théoriquement que le différentiel au niveau des primes de risque « forward » entre les deux pays peut être utilisé pour faire la distinction entre le risque « forward » et les utilise pour montrer qu’il est difficile de conclure que ces autres types de risque dans les pays émergents ont convergé vers les niveaux différents de risque politique, jouent un rôle important dans l’explication des différences de primes de risque – autres que celles associées au risque de défaut– entre les pays émergents et les pays avancés. Le Chapitre 3 propose une nouvelle stratégie d’identification des chocs technologiques anticipés et non-anticipés, qui conduit à des résultats similaires aux prédictions des modèles néo-Keynésiens conventionnels. Il montre que l’incapacité de plusieurs méthodes empiriques à générer des résultats rejoignant la théorie est due à l’impureté des données existences sur la productivité totale des facteurs (TFP), conduisant à mauvaise identification des chocs technologiques non-anticipés-dont les effets estimés ne concordent pas avec l’interprétation de tels chocs comme des chocs d’offre. Ce problème, à son tour, contamine l’identification des chocs technologiques anticipés. Mon co-auteur, Hafedh Bouakez, et moi proposons une stratégie d’identification agnostique qui permet à la TFP d’être affectée de façon contemporaine par deux chocs surprises (technologique et non technologique), le premier étant identifié en faisant recours aux restrictions de signe sur la réponse de l’inflation. Les résultats montrent que les effets des chocs technologiques anticipés et non-anticipés concordent avec les prédictions des modèles néo-Keynésiens standards. En particulier, le puzzle rencontré dans les travaux précédents concernant les effets d’un choc non-anticipé sur l’inflation disparaît lorsque notre nouvelle stratégie est employée.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography