Dissertations / Theses on the topic 'Glycolyse – Modèles mathématiques – Prévision'

To see the other types of publications on this topic, follow the link: Glycolyse – Modèles mathématiques – Prévision.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Glycolyse – Modèles mathématiques – Prévision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cousin, Charlotte. "La gestion des sources carbonées chez Bacillus subtilis - Stratégie de validation expérimentale guidée par le modèle mathématique." Electronic Thesis or Diss., Paris, AgroParisTech, 2014. http://www.theses.fr/2014AGPT0008.

Full text
Abstract:
Dans ce travail, nous avons établi un modèle dynamique d’équations différentielles de la glycolyse de Bacillus subtilis, comprenant à la fois les régulations transcriptionnelles et enzymatiques. La validation complète d’un modèle aussi complexe n’est pas faisable à l’heure actuelle. De ce fait, nous avons développé une stratégie de validation, guidée par le modèle, pour diminuer le nombre d’expériences et pour se focaliser uniquement sur les points clés de la régulation. L’analyse du modèle à l’équilibre a donc fait ressortir : les propriétés structurelles fortes de la glycolyse, les enzymes clés impliqués et les régulations enzymatiques indispensables. Notre objectif était donc de valider les régulations enzymatiques prédites et de démontrer les propriétés structurelles du modèle d’un point de vue biologique en les perturbant. Premièrement, le modèle prédit un certain nombre de régulations enzymatiques critiques que nous avons vérifié expérimentalement. Notre approche, guidée par le modèle mathématique, nous a permis de faire des découvertes inattendues. Le modèle prédit que la glucose-6-phosphate déshydrogénase et la phosphofructokinase sont inactivées par le phosphoenolpyruvate (PEP). Nous avons purifié les enzymes de B. subtilis et nous avons pu démontrer pour les deux enzymes une inhibition non compétitive par le PEP. Le modèle prédit également que la pyruvate kinase est activée par le ribose-5-phosphate (R5P). De manière inattendue, les essais enzymatiques avec la pyruvate kinase purifiée de B. subtilis et taguée en N-terminus n’a montré aucune activation par le R5P ou par aucun des activateurs connus de la pyruvate kinase chez d’autres espèces. En revanche, la pyruvate kinase purifiée de B.subtilis, mais taguée en C-terminus est bien activée par le R5P, démontrant ainsi l’implication de la partie N-terminale de la protéine dans la stabilité de l’enzyme. Enfin, le modèle a également démontré que la pyruvate kinase et la phosphofructokinase sont fortement corrélées afin de maintenir la robustesse de la glycolyse. Il est donc intéressant de constater que les gènes codant pour ces deux enzymes forment un opéron (pfk-pyk). Afin de perturber cette régulation, nous avons découplé les gènes de cet opéron, chacun sous contrôle d’un promoteur inductible. Les résultats montrent que la robustesse de la glycolyse de B. subtilis est très forte, et qu’elle est très difficile à perturber. Pour conclure, ce travail a permis de valider le modèle mathématique établi en amont, tout en démontrant les difficultés et les atouts d’une collaboration entre mathématiques et biologie, pour expliquer les réseaux biologiques aussi complexes
In this study, we established a dynamical differential equation model of glycolysis in Bacillus subtilis that couples enzymatic and transcriptional regulation. Full experimental validation of such a complex model is currently not feasible. Thus, we built a model-driven validation strategy to decrease the number of experiments and focus only on several key points of the regulation. Model analysis at steady-state pointed out: strong structural properties of glycolysis, key enzymes involved and enzymatic regulations that seem indispensable. Our objective was to validate the predicted enzymatic regulation, demonstrate the structural properties from a biological perspective and perturb them in order to validate the model. First, the model predicted critical enzymatic regulations that we verified experimentally. This in silico-driven approach led us to some unexpected discoveries. Glucose-6-phosphate dehydrogenase and phosphofructokinase were both predicted by the model to be inactivated by phosphoenolpyruvate (PEP). We purified the enzymes from B. subtilis and were able to demonstrate uncompetitive inhibition by PEP for both of them. Moreover, pyruvate kinase, catalyzing the last step of glycolysis, was predicted to be activated by ribose-5-phosphate (R5P). Enzymatic assays with N-terminally tagged B. subtilis pyruvate kinase showed no activation by R5P, or any known activator of pyruvate kinases from other species. By contrast, enzymatic assays with C-terminally tagged B. subtilis pyruvate kinase showed the predicted R5P activation, suggesting the implication of the N-terminus in B. subtilis pyruvate kinase stability. Finally, the model analysis showed that pyruvate kinase and phosphofructokinase need to be strongly correlated to maintain the robustness of glycolysis. This notion is supported by the fact that genes coding for these enzymes constitute an operon (pfk-pyk). In order to perturb the robust regulation of glycolysis, we constructed B. subtilis with the genes pfk and pyk uncoupled, each under control of a separate inducible promoter. The results show high-robustness of B. subtilis glycolysis that was difficult to perturb. In the end, the mathematical model has been validated. This work has demonstrated the shortcomings and the advantages of working at the interface between mathematics and biology, which is necessary for full understanding of high-complexity biological networks
APA, Harvard, Vancouver, ISO, and other styles
2

Ayadi, Karim. "La prévision des prix pétroliers." Paris 2, 1997. http://www.theses.fr/1997PA020050.

Full text
Abstract:
La question que nous nous sommes posee dans cette these est: comment prevoir a tres court terme les evolutions futures des prix spot petroliers? le travail s'articule autours de deux axes. La premiere partie, exclusivement tournee vers les marches spot du petrole brut et raffine, s'attache a presenter la formation des prix sur ces marches en etudiant directement ce qui s'y passe. Une premiere apprche a consiste a etudier l'efficacite previsionnelle des methodes de l'analyse technique. La deuxieme approche etait la construction de modeles econometriques de prevision. L'exploration des proprietes statistiques des series journalieres des prix spot petroliers a suggere l'utilisation des modeles autoregressifs a erreurs de type arch. Ces modeles nous ont permis de reveler les proprietes deterministes et les proprietes stochastiques des prix petroliers. La seconde partie expose d'une part, le fonctionnement des marches a terme petroliers et leur role economique. Nous avons teste le role informationnel de la base (difference entre le prix a terme et le prix spot). D'autre part on montre que, dans le cadre d'un modele d'equilibre a anticipations rationnelles et en asymetrie d'information, le prix a terme agrege et divulgue l'information. Les tests empiriques ont montre, dans le cas du brent et sur la base d'observations journalieres, que le prix a terme n'anticipe pas correctement les evolutions futures du prix du brent date. Mais, concernant la volatilite des prix, nous avons pu montrer qu'il y a transmission de la volatilite du marche a terme vers le marche spot
This thesis focuses on the way one can make very short run predictions of spot oil and petroleum derivatives prices. Broadly, there are two issues of interest: the autoregressive expectations and the price discovery role of oil futures prices. In the first part we examine two different forecasting methodologies: technical analysis and time series modelling. Our empirical results show evidence for predictive power of the moving average rule on spot oil prices. On the other hand, the statistical properties of these prices led us to apply arch/garch methodology. The empirical results show, among other things, the existence of mean and conditional variance "day of the week" effects. The second part of this thesis is concerned with the informational role of oil futures markets. We first describe the functioning of oil future markets. Then we test the informational role of the basis (difference between the spot and future prices). In the last chapter, an equilibrium model under rational expectations and asymmetric information is constructed to show that the equilibrium future price transfers informations. Empirical tests show that daily brent future prices doesn't contain interesting informations on the evolution of daily dated brent price. But contain useful information to predict the evolution of dated brent price volatility
APA, Harvard, Vancouver, ISO, and other styles
3

Bergot, Thierry. "Modélisation du brouillard à l'aide d'un modèle 1D forcé par des champs mésoéchelle : application à la prévision." Toulouse 3, 1993. http://www.theses.fr/1993TOU30281.

Full text
Abstract:
Les brouillards denses sont des phenomenes meteorologiques tres dangereux, et de plus tres frequents l'hiver sur certaines regions, comme la region nord-pas de calais. Cependant, leur prevision par les services meteorologiques est delicate. Ainsi, une etude statistique menee sur les trois hivers 89-90, 90-91 et 91-92 a montre que la qualite de la prevision etait du meme ordre de grandeur que la prevision par persistance. Les cas d'erreurs se composent pour un tiers de non detection et pour deux tiers de fausses alertes. Afin d'essayer d'ameliorer la prevision des brouillards denses a courte echeance (12 heures a l'avance), une methode numerique de prevision associant un modele unidimensionnel (1d) et le modele de prevision operationnel de meteo-france peridot est testee. Le modele peridot fournit les termes mesoechelles (vent geostrophique, advections horizontales de temperature et d'humidite). Le modele 1d, appele cobel, est un modele de couche limite nocturne incluant une parametrisation microphysique implicite, une parametrisation du depot de rosee et de gelee, et une parametrisation des longueurs de melanges dans les cas stables et instables. Une etude de sensibilite a montre que le forcage mesoechelle et les conditions initiales n'avaient pas la meme influence selon le moment ou se formait le brouillard. Ainsi, en debut de nuit, periode de fort refroidissement, les termes locaux sont preponderant devant les termes mesoechelles et l'heure de formation du brouillard est peu sensible aux erreurs. Par contre, le developpement vertical du brouillard est toujours tres sensible aux termes advectifs. L'influence du depot de rosee a aussi ete mise en evidence. La simulation des cas observes lors des campagnes d'observation intensive lille88 et lille91 a permis de montrer que le modele cobel etait capable de reproduire correctement les principaux processus mis en jeu dans le brouillard et de poser les premieres limites d'applications de la methode de prevision des brouillards denses
APA, Harvard, Vancouver, ISO, and other styles
4

Despagne, Wilfried. "Construction, analyse et implémentation d'un modèle de prévision : déploiement sous forme d'un système de prévision chez un opérateur européen du transport et de la logistique." Phd thesis, Université Européenne de Bretagne, 2010. http://tel.archives-ouvertes.fr/tel-00487327.

Full text
Abstract:
Cette thèse montre que pour innover, le secteur privé peut faire appel à la connaissance académique. En effet, un partenariat entre un établissement universitaire et un professionnel du transport de marchandises a permis de répondre à des problématiques industrielles par l'application de mathématiques de pointe. Cette thèse porte sur la conception, l'implémentation et la mise en production d'un système de prévision d'activité pour l'optimisation de la planification des ressources. Elle propose également un modèle mathématique pour modéliser les flux de marchandises qui transitent sur un quai de messagerie. Pour comprendre la problématique posée par l'industriel, le contexte industriel dans lequel s'insèrent les travaux de recherche est posé. Il s'en suit une réflexion sur la manière d'aborder le problème de mise en place d'un système de prévision en entreprise. Une synthèse de l'existant en matière de production d'information prévisionnelle est menée dans l'entreprise. En s'appuyant sur les informations récoltées, une méthodologie pour intégrer, analyser et prévoir des indicateurs économiques, est avancée. Cette méthodologie est appliquée avec succès dans le groupe STEF-TFE, leader français du transport sous température dirigée. Dans le but de planifier les ressources nécessaires pour faire face à l'activité prévue, une recherche a été menée pour modéliser les flux de marchandises en transit sur un quai de messagerie. Le résultat de la thèse est, qu'en 2010, 70 agences de transports du groupe STEF-TFE ont accès aux prévisions d'activités. Aussi, la méthodologie avancée est susceptible d'être utilisée dans divers secteurs industriels.
APA, Harvard, Vancouver, ISO, and other styles
5

Ezzahrioui, M'hamed. "Prévision dans les modèles conditionels en dimension finie." Littoral, 2007. http://www.theses.fr/2007DUNK0187.

Full text
Abstract:
Cette thèse est consacrée à l’étude des propriétés asymptotiques de paramètres fonctionnels en statistiques non paramétriques, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, le quantile conditionnel, la fonction de hasard conditionnelle, ainsi que le mode conditionnel, lorsque la variable explicative est fonctionnelle. Nous nous intéressons essentiellement au problème de prévision dans les modèles non paramétriques conditionnels. Nous proposons une alternative à la méthode de la régression en utilisant le mode conditionnel ou la médiane conditionnelle. Notre étude porte sur des données identiquement distribuées ainsi que sur des données fortement mélangeantes. Nous généralisons également les résultats classiques existants dans le cas de dimension finie. La prévision en statistique paramétrique ou non paramétrique est l’une des questions les plus cruciales auxquelles les statisticiens ne cessent de proposer des solutions dans différents contextes. Dans le contexte non paramétrique, il est à noter que le modèle de régression usuel ne répond pas dans certaines situations aux problèmes de prévision. Le mode conditionnel ou le quantile conditionnel sont des alternatives pour répondre au problème mentionné. Cette thèse s’inscrit dans la continuité des travaux existants en dimension infinie et développe aussi bien les aspects pratiques que théoriques. Nos résultats sont appliqués à des données réelles de type climatique ainsi qu’à des données simulées
This thesis is dedicated to the survey of the asymptotic properties of conditional functional parameters in nonparametric statistics, when the explanatory variable takes values in an infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile, the conditional mode and the conditional hazard function, when the explanatory variable is functional. We are mainly interested in the problem of forecasting in non parametric conditional models, when the data are functional random variables. We propose an alternative to the method of regression while using the conditional mode or the conditional median. The survey of our functional estimators deals with i. I. D. As well as strong mixing data for which we generalize the classical finite-dimension results. Forecasting in parametric or nonparametric statistics is one of the most crucial questions to which the statisticians try to give answers for different frameworks. It is worth to note that the usual regression model does not answer to the problem of forecasting in some situations such as asymmetri densities or in the case where the density admits several peaks among which one is sufficiently large. The conditionnal mode/quantile are then alternatives to answer the mentioned problem. This thesis traces itself in the continuity of the existing works in infinite dimension. It develops a lot of aspects of both practical and theorical points of view. Our results are applied to real data (taken from climatology) and to simulated data
APA, Harvard, Vancouver, ISO, and other styles
6

Bornancin, Plantier Audrey. "Conception de modèles de prévision des crues éclair par apprentissage artificiel." Paris 6, 2013. http://www.theses.fr/2013PA066015.

Full text
Abstract:
Le Sud de la France subit régulièrement des inondations dévastatrices et meurtrières résultant d’épisodes pluvieux très intenses et localisés. La prévision de ces événements rapides et complexes est très difficile. Créé dans ce contexte, le projet FLASH (Flood forecasting with machine Learning, data Assimilation and Semi-pHysical modeling) regroupe plusieurs laboratoires partenaires qui ont pour objectif de fournir au SCHAPI (Service Central d’Hydrométéorologie et d’Appui à la Prévision des Inondations) des modèles de prévision des crues afin d’alimenter la carte de vigilance des crues disponible sur internet. La zone d’étude principale est le Gardon d’Anduze. Des modèles à réseaux de neurones avec deux types d’architecture sont réalisés pour prévoir la hauteur du cours d’eau à partir des pluies et des hauteurs passées. La sélection du nombre de neurones cachés, du nombre de variables, de certains paramètres de l’algorithme d’apprentissage, ainsi que l’initialisation des paramètres des réseaux, déterminante pour l’estimation des performances des modèles, est effectuée par validation croisée. Les prévisions obtenues en test sont intéressantes jusqu’à un horizon de prévision de 2h voire 3h suivant l’événement en test. La mise en œuvre d’un apprentissage adaptatif est décevante. L’utilisation de hauteurs de pluies issues des mesures radar, plutôt que celles provenant des pluviomètres, a conduit à des premiers résultats équivalents. Enfin, la méthodologie établie a été appliquée à la conception de modèles pour la prévision des crues sur le Gardon à Remoulins, bassin versant qui inclut celui précédemment étudié ; ces modèles donnent des résultats satisfaisants
The South of France is often subject to dramatic floods, which cause casualties and damages. Very intense, localized rainfalls generate fast, complex flash floods that are very difficult to forecast. The FLASH project (Flood forecasting with machine Learning, data Assimilation and Semi-pHysical modeling) was created in this context. It brings together several laboratories from different scientific fields, whose purpose is to provide the French Flood Surveillance Service (SCHAPI), with a model of flood forecasting. These forecasts will feed the real-time flood vigilance map that is available on the Internet. The main watershed under investigation here is the Gardon d’Anduze. Two types of neural networks are designed and trained to forecast the water level at Anduze from the past water levels and rainfalls. The selection of the number of hidden neurons, of the number of inputs, of some parameters of the training algorithm, and of the initialization of the networks parameters, which is crucial for estimating the generalization capability of the models, is performed by cross validation. The forecasts on the test events are satisfactory for 2 to 3 hour-ahead predictions, depending on the test event. An attempt at on-line training for model adaptation was unconvincing. Encouraging preliminary results are obtained by using rainfall estimates from radar images instead of rain gauge measurements. Finally, the methodology is applied to design predictive models of the water level of the Gardon at Remoulins, a watershed that includes the Gardon d’Anduze catchment. The level forecasts at Remoulins are statisfactory up to a prediction horizon of seven to nine hours
APA, Harvard, Vancouver, ISO, and other styles
7

Hilali, Cherifa Haya. "Modèles de prévision du trafic aérien "passagers" : exemples d'application : la France et le Maroc." Paris 2, 1991. http://www.theses.fr/1991PA020011.

Full text
Abstract:
Dans le souci de rationaliser leur exploitation afin d'ameliorer la rentabilite de leurs investissements, les compagnies aeriennes utilisent de plus en plus des methodes et ou des modeles econometriques. Ces outils sont developpes surtout pour le trafic des passagers qui demeure, en depit de la croissance du trafic fret, le produit majeur de leur exploitation. Ce role capital des previsions pour une gestion moderne nous a conduit a nous interesser tout particulierement a cet outil des decideurs de l'activite aerienne. Cette recherche nous a conduit a saisir l'articulation entre les techniques econometriques et la complexite du "monde de l'aerien". De ce fait, nous avons explore ces deux domaines en essayant de depasser leurs complexites. Une analyse descriptive des principaux problemes methodologiques rencontres tout au long d'une prevision de trafic, nous a permis de mettre en evidence les orientations qui doivent etre prises en compte en priorite. Notre objectif etait d'apporter une alternative a la methode deja utilisee au maroc pour offrir un modele econometrique elabore, quis erait exploite dans le cadre de la realite de ce pays. A partir de notre recherche, nous sommes arrives a degager des resultats de base qui peuvent servir a la prevision du trafic aerien domestique marocain, notamment pour une meilleure maitrise des investissements et de l'orientation des politiques commerciales de ce type de transport. Les regressions, aussi bien pour le cas de la france que pour le cas du maroc, ont permis de degager et de confirmer les variables determinantes dans la prevision du trafic potentiel des passagers
In an attempt to rationalize their operations in order to improve their investments, airline companies increasingly use econometric methods and or models. These tools have been developed especially for passenger traffic which remains, despite grouth in freight traffic, the main part of their operations. The essential role palyed by forecasting in modern management has led us to be particularty interested in this tool for aviation decision matiers. This research has led to comprehend the hinge between econometric technics and the complexity of "the aviation world". Because of this fact we have explored these two fields endeavoring to go beyond their complexities. A descriptive analysis of the principle methodological problems encountered throughout a traffic forecast has allowed us to point out the different orientations that should be taken into account with priority. Our goal was to provide an alternative to the method already in use in morocco in order to propose a detailed econometric model which would be used within the framework of the real life of this country. From our research, we managed to come up with basis results which can be used for domestic moroccan air traffic forecasts, notably for better control of investments of the orientation of the commercial policies of this type of transportation. Regressions concerning france as well as morocco, permitted the. .
APA, Harvard, Vancouver, ISO, and other styles
8

Bénard, Élodie. "Impact populationnel de la vaccination contre les virus du papillome humain : revue systématique et synthèse des prédictions de 16 modèles mathématiques dynamiques." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27033.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017
Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème; 90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%; 68%) chez les femmes et 36%(28%; 61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%; 100%) chez les femmes et 83%(75%; 100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%; 32%) chez les femmes et 35%(27%; 39%) chez les hommes à 40% de couverture, et 7%(0%; 10%) et 16%(1%; 25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11.
Background: As of 2015, 65 countries have introduced HPV vaccination programmes. Mathematical models have played a key role in the implementation of these programmes. Objectives: We conducted a systematic review and pooled-analysis of model predictions of population-level effectiveness of HPV vaccination against HPV-16/18/6/11 infection in women and men, to examine the robustness/variability of predicted populationnal effects, incremental benefit of vaccinating boys, and potential for HPV vaccine-type elimination. Methods: We searched Medline and Embase (2009-2015) for transmission-dynamic modeling studies predicting the population-level impact of vaccination on HPV-16/18/6/11 infections among women and men in high-income countries. Participating modeling teams produced predictions for 19 standardized scenarios. We derived pooled relative reduction in HPV prevalence (RRprev) 70 years after vaccination, using the median (10th; 90thpercentile) of model predictions. Strategies investigated were Girls-Only and Girls & Boys vaccination at 12 years of age. Findings: 16/19 eligible models, from ten high-income countries provided predictions. With 40% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 53%(46%; 68%) and 36%(28%; 61%), respectively. With 80% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 93%(90%; 100%) and 83%(75%; 100%), respectively. Vaccinating boys in addition to girls increased HPV-16 RRprev among women and men by 18%(13%; 32%) and 35%(27%; 39%) for 40% coverage, and 7%(0%; 10%) and 16%(1%; 25%) for 80% coverage, respectively. RRprev were greater for HPV-18/6/11 than HPV-16 for all scenarios. Finally at 80% coverage, most models predicted that Girls & Boys vaccination would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls & Boys could eliminate HPV-16/18/6/11.
APA, Harvard, Vancouver, ISO, and other styles
9

Ghattas, Badih. "Agrégation d'arbres de décision binaires : Application à la prévision de l'ozone dans les Bouches du Rhône." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Peton, Nicolas. "Méthode du groupement par soustraction pour l'identification de modèle flou : amélioration et application à la prévision de la polution atmosphérique." Montpellier 2, 1999. http://www.theses.fr/1999MON20158.

Full text
Abstract:
Les travaux presentes dans cette these se situent dans le domaine de l'identification de modeles flous. L'objectif vise est de developper une methodologie pour l'identification de modeles flous afin d'obtenir une representation simple et comprehensible du comportement d'un systeme reel. Cette methodologie est basee sur l'analyse de donnees d'entree et de sortie qui sont parfois incompletes, incertaines ou imprecises. La premiere etape de ce travail est la modelisation du systeme. Le manque de connaissances exactes sur le systeme et l'absence de theorie physique le decrivant font qu'il est difficile d'en construire un modele mathematique. De plus, le modele recherche doit etre comprehensible meme par une personne non experte dans le domaine de la logique floue, tout en permettant de representer le plus fidelement possible le comportement du systeme. En fonction de ces contraintes et parmi les moyens envisages pour modeliser de tels systemes, nous avons propose une methode basee sur la logique floue. La methodologie retenue et que nous avons amelioree se base sur le groupement par soustraction pour effectuer l'identification du modele flou. Ces ameliorations, principalement orientees dans le cadre de prevision de series chronologiques, ont ete obtenues en ajoutant une etape d'optimisation a l'algorithme du regroupement par soustraction et en ameliorant l'algorithme lui-meme. Afin de juger de l'acuite des modeles obtenus, nous avons defini des fonctions de cout sur ces modeles qui permettent d'etudier leurs performances et d'en selectionner les meilleurs. Cette methode a ete appliquee, a la prevision de la pollution atmospherique et a ete egalement mise en uvre dans divers probleme de classification. Les resultats obtenus permettent d'envisager que cette methode puisse s'appliquer a d'autres domaines.
APA, Harvard, Vancouver, ISO, and other styles
11

Akrache, Radouane. "Prévision de la durée de vie en fatigue des structures 3D par la méthode des éléments finis." Compiègne, 1998. http://www.theses.fr/1998COMP1128.

Full text
Abstract:
Cette étude a pour but de proposer un outil qui permet de prédire la durée de vie en fatigue des structures 3D avec la méthode des éléments finis. L'approche développée est appliquée utilisant les critères de fatigue multiaxiale de Crossland, Sines, Dang Van et Lu. Pour valider la méthodologie développée, des tests de simulation ont été effectués sur des éprouvettes lisses et d'autres entaillées dans le cas de sollicitations simples ou combinées en phase ou hors phase. Au cours de notre étude, nous avons aussi établi une méthode permettant de prévoir par calcul les contraintes résiduelles admissibles nécessaires pour atteindre une durée de vie visée, et une autre méthode permettant de prévoir les coefficients de sécurité. Nous obtenons avec notre approche un outil intéressant de pré-dimensionnement rapide compatible avec les logiciels de CAO et de calcul des structures
APA, Harvard, Vancouver, ISO, and other styles
12

Bubnova, Radmila. "Pouziti souradnice "hydrostaticky tlak" pro integraci elastického modelu dynamiky atmosféry v numerickém predpovednim systému ARPEGE/ALADIN=." Toulouse 3, 1995. http://www.theses.fr/1995TOU30067.

Full text
Abstract:
Arpege/aladin est un modele tri-dimensionnel a domaine limite, qui fait partie du systeme integre de prevision numerique arpege/ifs. Comme son equivalent global, la version a domaine limite utilise une representation spectrale des champs horizontaux. Une version non-hydrostatique d'arpege/aladin a ete developpee en utilisant la pression hydrostatique comme variable independante. La dynamique choisie represente la version totalement elastique des equations d'euler, l'orographie etant introduite par le biais d'une coordonnee hybride epousant la surface terrestre a sa base. Le schema semi-implicite a ete adapte pour controler les ondes acoustiques comme les ondes de gravite. Il a fallu modifier l'approximation de l'epaisseur logarithmique des couches du modele, et ce pour respecter la regle de l'integration par parties dans le processus conduisant a l'equation de structure. Le schema classique est complete par une correction implicite supplementaire sur la partie non lineaire de la divergence tri-dimensionnelle: ceci implique d'iterer la solution de l'equation d'helmholtz. Tout ceci a permis de prouver pour la premiere fois la faisabilite de cette nouvelle methode. Les resultats de tests idealises dans une version bi-dimensionnelle plan vertical pour des ecoulements au dessus d'une montagne en cloche sont tres proches des solutions analytiques connues. La capacite du modele a representer les ondes de sillage non-hydrostatiques et l'influence de certains effets convectifs a aussi pu etre verifiee
APA, Harvard, Vancouver, ISO, and other styles
13

Hernandez, Lauriane. "Prévision du chiffre d'affaires pour l'implantation d'un hypermarché : comparaison de deux méthodes." Montpellier 2, 1991. http://www.theses.fr/1991MON20229.

Full text
Abstract:
Ces travaux concernent la recherche d'une methode permettant la prevision du chiffre d'affaires pour l'implantation d'un hypermarche. Deux methodes seront concues et testees sur un meme terrain d'application: l'hypermarche auchan de saint etienne. La premiere debutera par l'etude de quatre grands courants de la theorie marketing (les praticiens du marketing, la psychosociologie economique, la theorie economique spatiale et la theorie probabiliste) et permettra de retenir un modele econometrique le multiplicative competitive interactive model. Il sera applique et teste avec deux methodologies comportant chacune deux jeux de variables. Les variables les plus determinantes dans le comportement du consommateur s'avereront etre la distance et la surface alimentaire. Compte tenu des resultats moyens que ce modele fournit, on appliquera sur le meme terrain un deuxieme outil. Ne de l'etude des systemes experts, cet outil sera fonde sur l'analyse du raisonnement d'un expert en matiere d'implantation. Bien que compose d'un moteur d'inferences et d'une base de connaissances, le systeme ne sera pas un veritable systeme expert, compte tenu des caracteristiques de la base (nombre d'experts limite, structure lineaire du raisonnement, caractere numerique des donnees). Il sera donc appele: systeme de modelisation du raisonnement d'un expert et donnera sur ce terrain d'application, de tres prometteurs resultats
APA, Harvard, Vancouver, ISO, and other styles
14

Allain, Guillaume. "Prévision et analyse du trafic routier par des méthodes statistiques." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/351/.

Full text
Abstract:
La société Mediamobile édite et diffuse de l'information sur le trafic aux usagers. L'objectif de ce travail est l'enrichissement de cette information par la prévision et la complétion des conditions de route. Notre approche s'inspire parfois de la modélisation physique du trafic routier mais fait surtout appel à des méthodes statistiques afin de proposer des solutions automatisables, modulaires et adaptées aux contraintes industrielles. Dans un premier temps, nous décrivons une méthode de prévision de la vitesse de quelques minutes à plusieurs heures. Nous supposons qu'il existe un nombre fini de comportements types du trafic sur le réseau, dus aux déplacements périodiques des usagers. Nous faisons alors l'hypothèse que les courbes de vitesses observées en chaque point du réseau sont issues d'un modèle de mélange. Nous cherchons ensuite à améliorer cette méthode générale de prévision. La prévision à moyen terme fait appel à des variables bâties sur le calendrier. Nous retenons le modèle de mélange des courbes de vitesse et nous proposons également des modèles de régression fonctionnelle pour les courbes de vitesses. Ensuite nous proposons une modélisation par régression locale afin de capturer la dynamique physique du trafic à très court terme. Nous estimons la fonction de noyau à partir des observations du phénomène en intégrant des connaissances a priori sur la dynamique du trafic. La dernière partie est dédiée à l'analyse des vitesses issues de véhicules traceurs. Ces vitesses sont irrégulièrement observées en temps et en espace sur un axe routier. Nous proposons un modèle de régression locale à l'aide de polynômes locaux pour compléter et lisser ces données
The industrial partner of this work is Mediamobile/V-trafic, a company which processes and broadcasts live road-traffic information. The goal of our work is to enhance traffic information with forecasting and spatial extending. Our approach is sometimes inspired by physical modelling of traffic dynamic, but it mainly uses statistical methods in order to propose self-organising and modular models suitable for industrial constraints. In the first part of this work, we describe a method to forecast trafic speed within a time frame of a few minutes up to several hours. Our method is based on the assumption that traffic on the a road network can be summarized by a few typical profiles. Those profiles are linked to the users' periodical behaviors. We therefore make the assumption that observed speed curves on each point of the network are stemming from a probabilistic mixture model. The following parts of our work will present how we can refine the general method. Medium term forecasting uses variables built from the calendar. The mixture model still stands. Additionnaly we use a fonctionnal regression model to forecast speed curves. We then introduces a local regression model in order to stimulate short-term trafic dynamics. The kernel function is built from real speed observations and we integrate some knowledge about traffic dynamics. The last part of our work focuses on the analysis of speed data from in traffic vehicles. These observations are gathered sporadically in time and on the road segment. The resulting data is completed and smoothed by local polynomial regression
APA, Harvard, Vancouver, ISO, and other styles
15

Nono, Simplice Aimé, and Simplice Aimé Nono. "Three essays in international finance and macroeconomics." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28284.

Full text
Abstract:
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant).
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant).
This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
APA, Harvard, Vancouver, ISO, and other styles
16

Glade, Mathieu. "Modélisation des coûts de cycle de vie : prévision des coûts de maintenance et de la fiabilité : Application à l'aéronautique." Ecully, Ecole centrale de Lyon, 2005. http://bibli.ec-lyon.fr/exl-doc/mglade.pdf.

Full text
Abstract:
Dans sa définition officielle, le terme "sûreté de fonctionnement" couvre les quatre notions que sont la fiabilité, la sécurité, la maintenabilité et la disponibilité. Aujourd'hui cependant, on tend vers une acceptation élargie de cette définition en étendant le sens de sûreté de fonctionnement à une notion plus générale de maîtrise du risque, que celui-ci soit économique, sécuritaire ou opérationnel. Dans le domaine initial des défaillances techniques, on s'intéresse de ce fait au pilotage des coûts d'exploitation. Ainsi redéfinie, la sûreté devient un enjeu majeur dans la compétitivité et conduit les constructeurs à développer des approches qui permettent sa maîtrise par une prise en compte de ce paramètre dès les phases d'avant-projet. Aussi ce travail consiste-t-il d'une part à proposer des solutions de modélisation des coûts de maintenance, et d'autre part à établir des méthodes d'analyse pour estimer la fiabilité à venir d'une produit lors du design
In its official definition, the term of functioning security represents four notions which are reliability, security, maintainability and availability. However, today this definition of functioning security involves a more general notion of economy, security or operational risk master. So in the initial domain of the technical failure, we will be interested in the piloting of the exploitation costs. This notion, have became the major stake of competitiveness, lead the manufacturers to develop approaches allowing a mastery of these parameters by their consideration from the pre-project phases. So this work consists first in proposing a model of maintenance costs and also in establishing analysis methods witch allows estimating product reliability. We will see how a design to maintenance cost perfectly corresponds with this new definition of the functioning security
APA, Harvard, Vancouver, ISO, and other styles
17

Moradi, Azalia. "Proposition d'une démarche de modélisation pour la prévision de l'amorçage d'une fissure dans un assemblage collé sous des sollicitations statiques." Paris 6, 2013. http://www.theses.fr/2013PA066729.

Full text
Abstract:
Dans un contexte de réduction de la masse des aéronefs pour une diminution de la consommation de carburant, l’assemblage par collage représente une alternative intéressante aux assemblages boulonnés. Toutefois, les avantages des assemblages collés ne sont pas pleinement exploités, notamment de par le manque de confiance accordée dans les méthodes de dimensionnement leur étant associés. C’est pourquoi, l’objectif de ce travail était de proposer une démarche de modélisation pour la prévision de l’amorçage d’une fissure dans ce type d’assemblages sous des sollicitations statiques. De nombreux paramètres influents jouent sur la tenue à l’amorçage dans un assemblage collé. En particulier, cette tenue est fortement dépendante de l’épaisseur de la colle de cet assemblage. Aussi, dans un premier temps, l’influence de ce paramètre a été évaluée par une approche par critère couplé pour lequel une nouvelle définition de la mixité de mode a été proposée afin de traduire la dépendance de la résistance et de la ténacité du joint au mode de chargement. La mise en œuvre du critère couplé a permis de retrouver l’influence, observée expérimentalement, de l’épaisseur de colle sur la tenue lors d’un essai à simple recouvrement, à savoir que plus l’épaisseur de colle est fine, meilleure est la tenue. Dans un deuxième temps, il a s’agit de mettre à profit la compréhension acquise précédemment en prenant en compte de l’épaisseur de colle dans un modèle de zone cohésive composé des mêmes ingrédients que le critère couplé mais qui est applicable dans le cas de structures en 3D. Le modèle de zone cohésive ainsi proposé rend compte de l’influence de l’épaisseur de colle sur l’amorçage identifiée par le critère couplé. Finalement, les apports et les limites de la démarche de modélisation proposée ont été mis en évidence à l’aide de comparaisons avec des résultats expérimentaux issus de la littérature
In a context of aircraft weight reduction for a decrease of the fuel consumption, joining by bonding represents an interesting option to screwed assemblies. However, the advantages of bonded assemblies are not completely exploited especially because of the lack of confidence in the engineering design methods being used for them. That is why the purpose of this work was to propose a modelling approach for the prediction of a crack initiation in this kind of assemblies under static solicitations. Numerous parameters play a major role on the initiation in a bonded assembly. In particular, the initiation load depends highly on the adhesive thickness of the assembly. Therefore, on the other hand, the influence of this parameter has been estimated by a coupled criterion-based approach for which a new definition of the mode mixity has been proposed in order to express the dependency of the adhesive strength and toughness to the loading mode. The application of the coupled criterion enabled to confirm numerically the influence of the adhesive thickness on the initiation observed experimentally in a single lap joint test; namely the thinner the adhesive thickness, the greater initiation load. One the other hand, the knowledge gained has been built on by taking into account the adhesive thickness in a cohesive zone model composed of the same ingredients than the coupled criterion but which can be used in 3D structures. The cohesive zone model thus proposed shows the influence of the adhesive thickness on the initiation identified with the coupled criterion. Finally, the contributions and the limitations of the modelling approach proposed have been highlighted through comparisons with experimental results of literature
APA, Harvard, Vancouver, ISO, and other styles
18

Thiriet, Romain. "Amélioration de la prévision des performances transitoires des turbines à gaz." Poitiers, 2007. http://www.theses.fr/2007POIT2349.

Full text
Abstract:
En phase d’avant-projet d’une turbine à gaz, les outils de calcul des performances transitoires doivent aujourd’hui intégrer une représentation simple et générique de phénomènes multi physiques instationnaires complexes. Ce travail de thèse tente de répondre à cette problématique et porte en particulier sur l’imprégnation thermique des parois des turbomoteurs, phénomène qui pénalise les capacités d’accélération de ces systèmes. La modélisation du phénomène d’imprégnation thermique a été menée à l’aide de la méthode nodale. Cette approche système a permis d’élaborer des modèles d’échange de chaleur simples pour chaque composant du moteur. Après une analyse fine des conditions d’écoulements et des géométries présentes dans une turbine à gaz, des lois issues d’études expérimentales ont été retenues pour modéliser les échanges convectifs et radiatifs. Un périmètre géométrique et une étude de sensibilité au maillage ont permis de limiter la taille des modèles développés sans caricaturer le phénomène physique décrit. Une validation des modèles d’échange de chaleur a été menée en comparant les températures de parois calculées à celles mesurées sur banc d’essais. L’intégration des modèles d’échange de chaleur dans le code de calcul de performances a permis de diminuer de façon importante les erreurs de prédiction des capacités d’accélération. Ceci reste valable pour l’ensemble du domaine de vol et pour différentes architectures et tailles de turbomoteurs. Enfin, pour mieux appréhender les erreurs résiduelles de prédiction, la sensibilité des performances aux déformations thermomécaniques et au rendement de combustion a également été abordée, modélisée et discutée
For a gas turbine preliminary design, the performances program has to simply integrate complex physical phenomena during transient conditions. This thesis addresses this issue and deals particularly with heat soakage, a transient effect which diminishes the gas turbine acceleration rate. The heat soakage modelling has been performed with the nodal method. This system approach enabled us to build simple heat transfer models for each engine component. After a detailed analysis of the air flow and the wall geometries characteristics usually found in a gas turbine, some laws, taken from experimental studies, have been used to model the convective and radiative heat transfers. A geometrical perimeter and a refining mesh study allowed us to reduce the models size without cartooning the described physical phenomena. A validation of the heat transfers model has been done by comparing the wall temperatures computed with those measured in a test bench. The update of the gas turbine performances program with the heat transfers models has diminished dramatically the prediction errors of the engine acceleration capabilities. This result is still valid within the whole flight envelope and for others turboshafts arrangements and several sizes. Eventually, in order to grasp the residual errors of prediction, the engine performances sensitivity to thermomechanical effects and combustion efficiency has been also studied
APA, Harvard, Vancouver, ISO, and other styles
19

Khardani, Salah. "Prévision non paramétrique dans les modèles de censure via l'estimation du mode conditionnel." Littoral, 2010. http://www.theses.fr/2010DUNK0277.

Full text
Abstract:
Dans ce travail, nous étudions quelques aspects de l’estimation fonctionnelle pour des données incomplètes (censurées). Plus précisément, nous nous intéressons à la fonction mode et à la fonction mode conditionnel pour lesquelles nous construisons des estimateurs et étudions le comportement asymptotique. Les estimateurs proposés se positionnent comme alternatives à la prévision par la fonction de régression. Dans un premier travail, nous considérons une suite de v. A. {T_i , i [supérieur ou =]1} indépendante et identiquement distribuée (iid), de densité f , censurée à droite par une suite aléatoire {Ci , i [supérieur ou = à]1} supposée iid et indépendante de {T_i , i [supérieur ou = à]1}. Nous nous intéressons à un problème de régression de T par une covariable multi-dimensionnelle X. Nous établissons la convergence et la normalité asymptotique des estimateurs à noyau de la fonction mode conditionnel et de la densité conditionnelle. Nous obtenons des intervalles de confiance en utilisant la méthode du "plug-in" pour les paramètres inconnus. Une étude sur des données simulées de taille finie illustre la qualité de nos estimateurs. Dans un second travail, nous traitons le cas du mode simple défini par θ = arg max_{t. IR} f (t). Dans ce cas, la suite {T_i , i [supérieur ou = à]1} est supposée stationnaire et fortement mélangeante, alors que les {C_i , i [supérieur ou = à]1} sont iid. Nous construisons un estimateur du mode (basé sur un estimateur à noyau de la densité) dont nous établissons la convergence presque sûre. Le dernier travail de cette thèse généralise les résultats de convergence du mode conditionnel au cas où les {T_i , i [supérieur ou = à]1} sont fortement mélangeant
In this work, we address the problem of estimating the mode and conditional mode functions, for independent and dependent data, under random censorship. Firstly, we consider an independent and identically distributed (iid) sequence random variables (rvs) {T_i , i [equal to or higher than]1}, with density f. This sequence is right-censored by another iid sequence of rvs {Ci , i[equal to or higher than]1} which is supposed to be independent of {T_i , i [equal to or higher than]1}. We are interested in the regression problem of T given a covariable X. We state convergence and asymptomatic normality of Kernel-based estimators of conditional density and mode. Using the “plug-in” method for the unknown parameters, confidence intervals are gicen. Also simulations are drawn. In a second step we deal with the simple mode, given by par θ = arg max_{t. IR} f (t). Here, the sequence {T_i , i [equal to or higher than]1} is supposed to be stationary and strongly mixing whereas the {Ci , i[equal to or higher than]1} are iid. We build a mode estimator (based on a density kernel estimator) for which we state the almost sure consistency. Finally, we extend the conditional mode consistency results to the case where the {T_i , i [equal to or higher than]1} are strongly mixing
APA, Harvard, Vancouver, ISO, and other styles
20

Velázquez, Zapata Juan Alberto. "Evaluation of hydrological ensemble prediction systems for operational forecasting." Doctoral thesis, Université Laval, 2010. http://hdl.handle.net/20.500.11794/22245.

Full text
Abstract:
La prévision hydrologique consiste à évaluer quelle sera l'évolution du débit au cours des prochains pas de temps. En utilisant les systèmes actuels de prévisions hydrologiques déterministes, il est impossible d'apprécier simplement l'incertitude associée à ce type de prévision, ce que peut nuire à la prise de décisions. La prévision hydrologique d'ensemble (PHE) cherche à étayer cette incertitude en proposant, à chaque pas de temps, une distribution de probabilité, la prévision probabiliste, en place et lieu d'une estimation unique du débit, la prévision déterministe. La PHE offre de nombreux bénéfices : elle informe l'utilisateur de l'incertitude; elle permet aux autorités qui prennent des décisions de déterminer des critères d'alerte et de mettre en place des scénarios d'urgence; elle fournit les informations nécessaires à la prise de décisions tenant compte du risque. L'objectif principal de cette thèse est l'évaluation de prévisions hydrologiques d'ensemble, en mettant l'accent sur la performance et la fiabilité de celles-ci. Deux techniques pour construire des ensembles sont explorées: a) une première reposant sur des prévisions météorologiques d'ensemble (PME) et b) une seconde exploitant simultanément un ensemble de modèles hydrologiques (multimodèle). En termes généraux, les objectifs de la thèse ont été établis afin d'évaluer : a) les incertitudes associées à la structure du modèle : une étude qui repose sur des simulations journalières issues de dix-sept modèles hydrologiques globaux, pour plus de mille bassins versants français; b) les incertitudes associées à la prévision météorologique : une étude qui exploite la PME du Service Météorologique du Canada et un modèle hydrologique opérationnel semi-distribué, pour un horizon de 3 jours sur douze bassins versants québécois; c) les incertitudes associées à la fois à la structure du modèle et à la prévision météorologique : une étude qui repose à la fois sur la PME issue du ECMWF (European Centre for Medium-Range Weather Forecasts) et seize modèles hydrologiques globaux, pour un horizon de 9 jours sur 29 bassins versants français. Les résultats mets en évidence les avantages des systèmes probabilistes par rapport aux les déterministes. Les prévisions probabilistes sont toutefois souvent affectées par une sous dispersion de leur distribution prédictive. Elles exigent alors un post traitement avant d'être intégrées dans un processus de prise de décision. Plus intéressant encore, les résultats ont également montré le grand potentiel de combiner plusieurs sources d'incertitude, notamment celle associée à la prévision météorologique et celle associée à la structure des modèles hydrologiques. Il nous semble donc prioritaire de continuer à explorer davantage cette approche combinatoire.
APA, Harvard, Vancouver, ISO, and other styles
21

Jacquin, Dimitri. "Modélisation de l'histoire thermomécanique des zones soudées en Friction Stir Welding : application à la prévision des microstructures." Saint-Etienne, EMSE, 2009. http://www.theses.fr/2009EMSE0001.

Full text
Abstract:
Un modèle simple de simulation thermomécanique en trois dimensions du procédé de soudage par Friction Stir Welding est proposé dans cette présente thèse. Ce modèle a été développé en s'inspirant des travaux réalisés par Heurtier, basés sur une combinaison de champs de vitesse analytiques et numériques issus de la mécanique des fluides. Ces champs de vitesse sont introduits dans une équation thermique, en régime stationnaire, pour calculer le champ de température pendant le soudage. L'histoire thermomécanique complète du matériau pendant le process est disponible sous forme de ligne d'écoulement et de champ de température. Les effets de conduction et de convection sont pris en compte dans les équations en introduisant la formule de la dérivée particulaire. Un nouveau formalisme est introduit afin de mieux simuler les aspects thermiques du frottement de l'épaulement en sous-surface des tôles de métal. On peut estimer les déformations, les vitesses de déformation et les températures d'une particule de matière le long de sa ligne d'écoulement pendant le soudage. Les résultats obtenus sont en bonne adéquation avec les mesures expérimentales réalisées sur des tôles d'aluminium AA7449 et AA 2024 soudées en Friction Stir Welding conventionnel. Une rhéologie précise de ces deux alliages a été effectuée pour ces deux nuances. Le modèle de recristallisation dynamique continue de Montheillet-Gourdet a été utilisé pour valider le modèle thermomécanique en comparant les tailles de grain estimées avec celles mesurées sur des joints soudés
A simple three dimensional thermomechanical model for FSW is presented. It is developed from the model proposed by Heurtier based on a combination of fluid mechanics numerical and analytical velocity fields. Those velocity fields are introduced in a steady state thermal calculation to compute the temperature field during the welding. The complete thermomechanical history of the material during the process can then be accessed by temperature and strain rate contours. Thermal diffusion and convection effects are accounted for by means of the particular derivative formula. A new formalism is introduced to better simulate the thermal effect of the shoulder on the upper surface of the metal sheet. The strains, strain rates and temperatures to which each element of the base metal is subjected as a function of time during the welding, is computed by integration along the flow lines. The calculated results are in good agreement with experimental measurements performed on a AA2024-T3 alloy friction stir welded joint. An additional microstructural modelling based on the Gourdet-Montheillet CDRX modelling is use to validate the first thermomechanical model
APA, Harvard, Vancouver, ISO, and other styles
22

Springer, Sabine. "La projection des ménages selon la taille pour tous les pays membres de l'ONU : utopie ou approche valable ?" Bordeaux 4, 2007. http://www.theses.fr/2007BOR40010.

Full text
Abstract:
Le nombre et la taille des ménages constituent une information importante pour les secteurs politique, administratif et privé. Le modèle de UN-Habitat projette le nombre de ménages par taille pour tous les pays membres de l'ONU. En cas de données insuffisantes le nombre total est estimé. Ce travail évalue la faisabilité technique, la fiabilité et la pertinence des résultats de ce modèle tout en tenant compte de la disponibilité et de la qualité des données, et de la comparabilité des résultats entre pays, surtout en ce qui concerne les définitions. L'hypothèse d'une évolution universelle des ménages est mise en cause par les différences observées entre pays, qui peuvent souvent être expliquées par des différences dans la structure par âge de la population et par le niveau d'urbanisation. Une diversification des hypothèses sur l'évolution future du nombre total des ménages est nécessaire afin que cette approche, certes approximative, soit valable et utile pour la plupart des pays
The number and size of households are an important information for the political, administrative and private sector. The model used by UN-Habitat projects the number of households by size for all member countries of the UN. In case of insufficient data the total number is estimated. This work evaluates the technical feasibility, the reliability and the pertinence of the results of this model. It takes into account the avaibility and the quality of data and the comparability of results between countries, especially in what concerns definitions. The hypothesis of a universal evolution of households has to be questioned in the light of the differences observed between countries. But these can often be explained through differences in the age structure of the population and in urbanisation levels. A diversification of hypotheses on the future evolution of the total number of households is necessary so that this approach is valid and of utility for the majority of countries
APA, Harvard, Vancouver, ISO, and other styles
23

Pattee-Gravel, Victor. "L'impact sur le cerveau du vieillissement cognitivement sain." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66428.

Full text
Abstract:
Ce mémoire décrit plusieurs modèles qui cherchent à prédire le vieillissement du cerveau chez des individus âgés ayant une cognition intacte. Nous effectuons d’abord des tests statistiques afin de comparer différents modèles. À partir de ceux-ci, nous présentons des estimés du moment critique à partir duquel certaines structures cérébrales ont décru morphométriquement de façon notable en guise d’indice de fragilité. Nous mesurons également l’asymétrie hémisphérique de la décroissance de chaque région. Nous proposons différentes façons d’ordonnancer les régions du cerveau selon différentes quantités mesurant le taux vieillissement. Finalement, nous établissons un outil qui permet d’évaluer l’âge virtuel correspondant aux mesures cérébrales pour le cerveau d’un individu, selon les estimés de normalité.
In this memoir, we propose different models in order to predict the effect of aging on brain atrophy, computed from neuroimagery data. We begin with different statistical tests in order to chose between models and assert if different regions have significant asymmetry in their development. We then compute critical moments after which we predict that the measures of a region have significantly decreased. We use these critical moments to order the regions, as we suppose it’s a good indicator of fragility in aging. We finish by proposing a method of predicting the neurological age of an individual from it’s neuroimagery data.
APA, Harvard, Vancouver, ISO, and other styles
24

Abbass, Fayad Atallah. "Étude de stabilité de fontis au toit des carrières souterraines et traitements apportés aux conséquences induites en surface." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL035N.

Full text
Abstract:
Les effondrements localisés «fontis » peuvent être à l'origine de dommages plus ou moins importants en fonction de leurs dimensions, de la nature des terrains dans lesquels ils se produisent et de l'occupation du sol. Leur prévision s'appuie souvent sur des règles de l'art et le retour d'expérience. L'objectif du travail consiste à élaborer une méthodologie de prédiction des risques de fontis, à étudier l'influence-de paramètres associés à ce phénomène et enfin à estimer les mouvements induits afin d'apporter le traitement convenable aux structures affectées en surface. Pour ce faire, il convient d'étudier les mécanismes de rupture, l'évolution des processus de ruine ainsi que les sollicitations réelles s'exerçant sur les ouvrages en surface. La méthodologie proposée s'agit d'une approche mixte s'appuyant sur trois outils : observations, méthodes analytiques et méthodes numériques. Elle s'intéresse au comportement élasto-plastique non-linéaire et à l'étude de propagation des fractures induites. La prise en compte de ces deux choix concerne les deux méthodes numérique et analytique. La prédiction pourrait cependant s'effectuer selon un code analytique « PRF2P » développée et, dans certains cas complexes (failles, eau, effet dynamique, fractures initiales naturelles. . . ), selon une approche numérique qui sera indispensable car elle permet d'en tenir compte. L'approche analytique consiste à représenter les bancs du recouvrement comme des poutres encastrées sur des bords compressibles. Le calcul des sollicitations tient compte de la troisième dimension (dalles), des contraintes verticale et horizontale, de la compressibilité des parements et du décollement entre les bancs. L'auto-comblement par foisonnement est lui aussi intégré avec quelque développement pour tenir compte de la troisième dimension. La création des fractures induites et le calcul de leur propagation possible, selon les deux approches, se basent sur des mécanismes de ruptures observés (flexion, cisaillement et/ou autres), pour que les résultats correspondent à une réalité physique afin de prédire le phénomène de fontis. L'approche numérique est également proposée pour réaliser un diagnostic de la stabilité du recouvrement et de la formation de fontis et prévoir la forme des mouvements induits en surface et aux structures affectées. Elle permet de contribuer au développement de l'approche analytique et d'améliorer ses résultats en les comparant aux résultats numériques. Une courbe de correction, concernant le calcul de la rigidité des appuis, a été réalisée où le calcul analytique n'était pas apte d'en tenir bien compte. La faisabilité de la méthodologie a été réalisée sur deux cas réels (Malakoff: carrière de calcaire grossier du Bassin Parisien et cas de Grozon : carrière de gypse de Jura). La comparaison entre les résultats obtenus et les observations in-situ était très satisfaisante. De ce fait, on peut conseiller d'utiliser cette méthodologie, en particulier le code analytique, pour une prédiction pratique des risques de fontis
The objective of the thesis is to improve the methods used to forecast of the sinkhole risk We studied the mechanisms as well as the evolution of the collapse processes the covering. Work based on the analysis of the well documented cases. A pragmatic and operational methodology was developed, to predict the risk of subsidence. It includes: 1. A numerical approach reserved for complex or exposed cases (including presence of major works, faults, water, seismity or dynamic heads). It is also recommended to improve the analytical method; 2. An analytical approach improved based on the theory of beams, able to take into account the elastoplastic behaviour of the recovery, the faults propgations, stifness and the bedding plane opening A parametric studies were led to analyse the failure according to the density of beds at the roof, the mechanical properties, the state of stress and the rigidity of the worked seam, etc
APA, Harvard, Vancouver, ISO, and other styles
25

Godbillon, Brigitte. "Modèle d'équilibre séquentiel avec prévision parfaite et horizon fini pour une économie avec monnaie et banque." Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX32019.

Full text
Abstract:
Cette these developpe un modele d'equilibre sequentiel avec prevision parfaite et horizon fini pour une economie avec monnaie et banque, comportant un nombre fini d'agents. Les agents vivent toutes les periodes de l'economie; ils disposent, des le debut de l'economie, d'une encaisse monetaire et recoivent, a chaque periode, une dotation en l'unique bien de consommation disponible en la periode. La banque est seule autorisee a emettre de la monnaie. A chaque periode, deux marches competitifs s'ouvrent successivement. Le premier est le marche financier ou les prets et emprunts des agents sont centralises par la banque; les echanges sont regles par les taux d'actualisation. En la derniere periode, aucun agent n'est debiteur. La banque controle l'evolution de la masse monetaire soit par politique d'open-market, soit par politique de reescompte. Le second marche est celui des transactions courantes ou les agents effectuent leurs achats et ventes du seul bien de consommation disponible en la periode, en utilisant la monnaie accumulee avant l'ouverture du marche, les prix du bien et de la monnaie reglent les echanges. La structure de marche est donc incomplete et la monnaie est le seul actif present sur tous les marches. Des la premiere periode, les agents et la banque, supposes avoir une prevision parfaite des prix futurs, definissent leurs plans d'actions pour toute la duree de l'economie : plans de consommations et d'encaisses monetaires pour les agents, plans de variations de la masse monetaire pour la banque. L'equilibre est alors defini comme une suite de prix des biens et de la monnaie, de taux d'actualisation, d'emissions-destructions de monnaie, de plans d'actions pour laquelle les offres et demandes des agents et de la banque s'egalisent sur les differents marches, a chaque periode. L'equilibre atteint depend de la politique monetaire choisie. Les offres et demandes des agents sont le resultat d'un comportement de maximisation de l'utilite sous une suite de contraintes budgetaires, pour les marches de transactions courantes et une contrainte de solvabilite terminale, pour les marches financiers. Les offres et demandes de la banque sont le resultat d'un comportement passif de reponse au besoin de financement de l'economie. Ce modele nous a permis d'etablir quelques resultats concernant la neutralite de la monnaie, l'efficacite et l'existence des equilibres sequenti
This thesis develops a sequence equilibrium model with perfect foresight and finite horizon for an economy with money and bank, composed of a finite number of agents. The agents live all the periods of the economy ; each agent receives, at the outset of the economy, an endowment of money, and at the beginning of the unique good available in the period. Only the bank can issue money. At each date, two competitive markets open successively. The first is the financial market where agents' lending and borrowing are centralized by the bank : agents' lending and borrowing plans depend on the discount rate. In the last period, all debts are settled. The bank manages the money stock through either open market policy or discount rate policy. The second market is the spot market where agents trade the consumption good available in the period with the money accumulated before the opening of the market ; these trades plans depend on the consumption good and money. The set of markets is incomplete and the money is the only asset which is traded in all markets. At the out set of the first period, the agents and the bank, assumed to have perfect foresight for all future prices, make their plans for all the duration of the economy : plans of consumptions and monetary holdings for the agents, plans of variations of the stock of money for the bank. Then, the equilibrium is a sequence of prices of consumption goods and money, of discount rates, of issues of money, of plans for which agents' and bank's supplies and demands are balanced on all the markets, at each period. The equilibrium reached depends of the monetary policy. The supplies and demands of agents result from a maximisation behavior of their utility function subject to a sequence of budget constraints (for the spot markets) and to a terminal solvability constraint (for the financial markets). The supplies and demands of the bank result from a passive behavior of adjusting to the need of finance in the economy. This model permits to obtain some results on the neutrality of money, on the efficiency and existence of non monetary or monetary sequence equilibria, depending to the monetary policy chosen by the bank
APA, Harvard, Vancouver, ISO, and other styles
26

Nicoud, Franck. "Prévision des transferts thermiques sur les protections thermiques d'un propulseur à propergol solide." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT061H.

Full text
Abstract:
L'aerodynamique interne d'un propulseur a propergol solide est etudiee dans la premiere partie. Le concept de simulation en gaz froid des propulseurs etant souvent utilise de maniere a obtenir des bases de donnees experimentales, une large revue bibliographique concernant ces montages est menee. L'analyse des approches numeriques utilisees pour la modelisation de tels montages a conduit a retenir une description de la turbulence de type k-l. Les simulations numeriques de deux montages a froid permettent de valider, sur un plan purement aerodynamique, le code de calcul elabore. Le propulseur d'etude concu et realise est decrit dans la seconde partie. Ce montage experimental a permis de constituer une base de donnees concernant les echanges thermiques quasi stationnaires generes sur paroi inerte au sein de la chambre de combustion d'un propulseur a propergol solide. Les calculs effectues montrent qu'une approche ne necessitant pas l'utilisation d'un maillage tres raffine a la paroi suffit a reproduire les niveaux de flux mesures. En outre, une loi de paroi prenant en compte l'effet des forts gradients de temperature et permettant de mieux decrire les mesures effectuees est proposee. La troisieme partie concerne l'evaluation de l'ablation d'un materiau de protection thermique place dans la chambre de combustion du propulseur d'etude. Le teflon a ete retenu en raison de la simplicite de ses mecanismes de degradation. Sur le plan de la mesure, les difficultes inherentes a l'utilisation de la methode ultrasonore sont mises en evidence. Les mesures dimensionnelles effectuees avant et apres essais constituent une base de donnees permettant de valider les futures codes de calcul d'ablation de protection thermique. La validite du couplage d'un code de calcul d'aerothermique et d'un module d'evaluation de la reponse d'un materiau de protection est discutee. Enfin, la simulation numerique complete des essais effectues est presentee
APA, Harvard, Vancouver, ISO, and other styles
27

Causse, Anne. "La valeur du temps de transport : de l'usage des théories micro-économiques de l'affectation du temps dans les modèles désagrégés aléatoires de transport : prévision de trafic, évaluation de projet." Montpellier 1, 1999. http://www.theses.fr/1999MON10039.

Full text
Abstract:
Ce travail traite de la valorisation des economies de temps de transport, parametre incontournable dans la prevision de trafic comme dans l'evaluation de projet d'investissements en infrastructure de transport. L'objectif est d'utiliser le cadre d'analyse fourni par la theorie de l'utilite aleatoire pour combiner theorie micro-economique de l'affectation du temps et modele discret de choix modal afin d'elaborer une methode de derivation des valeurs comportementales du temps, qualifiee des lors de chrono-utilite-coherente. La premiere partie est une recension des differentes theories de l'affectation du temps et des modeles de demande a partir desquels l'inference sur la valeur du temps est actuellement menee en france et a l'etranger. Il s'agit, a travers cette lecture critique de justifier les supports theorique et empirique retenus dans la suite de ce travail. La seconde partie presente dans le detail la procedure de derivation des valeurs comportementales du temps de transport que nous proposons. En substance, cette procedure se base sur une hierarchisation systematique des differentes sources de variabilite affectant la vtts, eu egard au programme d'affectation temporel adopte. Nous analysons pour finir, les implications des resultats etablis (variabilite structurelle vs. Variabilite non structurelle, dependance structurelle de la vtts au revenu et au temps disponible) pour le calcul public.
APA, Harvard, Vancouver, ISO, and other styles
28

Cardot, Hervé. "Contribution à l'estimation et à la prévision statistique de données fonctionnelles." Toulouse 3, 1997. http://www.theses.fr/1997TOU30162.

Full text
Abstract:
Ce travail aborde le probleme de l'estimation non parametrique des caracteristi ques du second ordre de fonctions aleatoires discretisees pour lesquelles nous considerons deux modeles : le premier est un modele de regression non parametrique, sous contrainte de rang, de donnees longitudinales dont les points de mesure varient d'une courbe a l'autre. Les estimateurs, definis comme solution d'un probleme d'optimisation, sont cons truits au moyen de splines hybrides et conduisent a une nouvelle analyse en composantes principales fonctionnelles. Cette methode est appliquee a l'etude de donnees pluviometriques. Nous prouvons ensuite la convergence en moyenne quadratique de l'estimateur de la moyenne et des vecteurs propres de l'operateur de covariance. Enfin un developpement asymptotique de l'erreur quadratique base sur la theorie des pertu rbations montre qu'il est preferable de lisser lorsque les donnees sont bruitees. Le second modele porte sur la prevision de processus autoregressifs fonctionnels. Nous developpons une methode de regression non parametrique simultanee des trajectoires qui anticipe la reduction de dimension necessaire a la construction d'un predicteur. Cette approche est ensuite appliquee a la prevision de series reelles (trafic autoroutier, series climatologiques enso) et comparee avec d'autres predicteurs de type parametrique ou non (noyaux,. . . ). Nous prouvons egalement la convergence en probabilite du predicteur construit par l'interpolation et le lissage spline des trajectoires.
APA, Harvard, Vancouver, ISO, and other styles
29

Filion, Mélanie. "Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24281/24281.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Cadren, Muriel. "Modélisation à court terme des consommations de produits pétroliers en France." Dijon, 1998. http://www.theses.fr/1998DIJOE007.

Full text
Abstract:
L'étude de la demande de produits pétroliers est devenue un axe de recherche privilégié à la suite des profondes modifications tant en terme de niveau qu'en terme de structure que connaissent les marchés pétroliers depuis les années quatre-vingt. L'intérêt accordé aux modèles économétriques de demande d'énergie, conjugué aux travaux relatifs à la non stationnarité des séries temporelles, ont été à l'origine du développement des modèles à correction d'erreur et de la cointégration. L'objectif de la thèse est de comparer des modèles de séries temporelles et de mesurer l'apport de la technique à correction d'erreur et de la cointégration. Les modèles étudiés sont les modèles univariés, les modèles vectoriels à correction d'erreur obtenus par l'approche de Johansen et les systèmes structurels. La partie 1 s'attache à présenter l'évolution de la demande d'énergie française et plus particulièrement celle des produits pétroliers depuis 1986. Nous situons la demande d'énergie française dans le contexte européen. L'objectif de cette partie est d'établir les caractéristiques de chaque produit et de cerner les principales composantes de la demande qui constitueront notre champ d'application. La partie 2 s'intéresse aux développements récents de l'économétrie des séries temporelles nous étudions le problème de la non stationnarité des séries saisonnières et non saisonnières et présentons les tests de racine unité. Nous examinons les principales approches de modélisation univariée et multivariée des séries temporelles non stationnaires et caractérisons les prévisions des différents modèles. La partie 3 est consacrée aux applications. Son objectif est d'illustrer les développements théoriques de la seconde partie en comparant les performances des modèles à correction d'erreur à celles obtenues par l'approche univariée et en confrontant l'approche structurelle à l’approche de Johansen. Nous testons, de plus, l'asymétrie du prix des demandes des principaux produits pétroliers
The analysis of petroleum product demand became a privileged thrust of research following the modifications in terms of structure and level of the petroleum markets since eighties. The greatest importance to econometrics models of energy demand, joint works about nonstationary data, explained the development of error-correction models and the cointegration. In this context, the short term econometric modelling of petroleum product demand doesn't only focus on forecasts but also on the measure of the gain acquired from using error- correction techniques and cointegration. It's fitting to take the influence of technical improvement and environment pressures into account in econometric modelling of petroleum products demand. The first part presents the evolution of energy demand in France and more particularly the petroleum product demand since 1986. The objective is to determine the main characteristics of each product, which will help us to analyse and validate the econometrics models. The second part focus on the recent developments in times series modelling. We study the problem of nonstationary data and expose different unit root tests. We examine the main approaches to univariate and multivariate modelling with nonstationary data and distinguish the forecasts of the latter's. The third part is intended to applications. Its objective is to illustrate the theoretic developments of the second part with a comparison between the performances of different approaches (approach box and Jenkins, Johansen approach's and structural approach). The models will be applied to the main French petroleum market. The observed asymmetrical demand behaviour is also considered
APA, Harvard, Vancouver, ISO, and other styles
31

Boussu, François. "Simulation de la filière textile - habillement - distribution : réduction de la complexité en vue d'une meilleure prévision des ventes." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-31.pdf.

Full text
Abstract:
L'application d'une demarche logistique globale ou quick response au sein des entreprises de la filiere textile/habillement/distribution (thd) repose essentiellement sur l'echange d'informations entre partenaires, traduites sous forme de messages edi (echange de donnees informatisees). Cependant, differentes contraintes de traitement de l'information freinent son utilisation au sein des systemes de gestion des partenaires de l'industrie textile telles que : l'absence d'outils de modelisation des flux et de simulation des strategies d'echanges commerciaux entre differents partenaires, la contrainte d'utilisation et de choix d'un modele de prevision, la complexite du probleme d'identification. Notre contribution consiste a proposer differents modeles et methodes pour repondre aux differents environnements. Un cadre de modelisation des flux intra et inter entreprises est presente afin de simuler differentes strategies d'approvisionnements. Les exemples de simulation mettent en evidence la capacite du simulateur a traiter une information permettant de fournir une solution envisageable tout en tenant compte de l'ensemble des contraintes initiales
Une identification des methodes et modeles de prevision adaptes a l'environnement de vente des articles textiles est egalement proposee. L'application de six methodes de prevision, et leurs evaluations par des mesures differentes de l'erreur sur des donnees de vente reelles, a permis de mettre en valeur les capacites d'adaptation et de precision des methodes de lissage utilisant une procedure d'auto-regulation de leurs propres parametres. Enfin, la reduction du nombre de donnees a traiter tout en minimisant la perte d'information est abordee. Les methodologies de classification proposees constituent des methodes d'analyse des donnees de vente des articles textiles et fournissent l'essentiel de l'information pour l'identification d'un modele de prevision adapte. L'utilisation d'un algorithme genetique de classification, dont la capacite reside a explorer l'ensemble des solutions, a permis d'atteindre la repartition optimale globale
APA, Harvard, Vancouver, ISO, and other styles
32

Maza, Elie. "Prévision de trafic routier par des méthodes statistiques : espérance structurelle d’une fonction aléatoire." Toulouse 3, 2004. http://www.theses.fr/2004TOU30238.

Full text
Abstract:
Dans la première partie de cette thèse, nous décrivons une méthode de prévision de temps de parcours sur le réseau autoroutier d'Île-de-France. Cette méthode est basée sur un modèle de mélange. Les paramètres sont estimés par une classification automatique et par apprentissage. La deuxième partie est consacrée à l'étude d'un modèle semi-paramétrique de translation de courbe. Les estimations sont effectuées par une méthode de M-estimation. Nous montrons la consistance et la normalité asymptotique des estimateurs. Dans la troisième partie, nous élargissons le modèle de déformation de courbe en considérant que les déformations sont issues d'un processus aléatoire. Cela nous permet de définir, de manière intrinsèque, une notion d'espérance structurelle et de pallier ainsi à la non identifiabilité du modèle. Nous proposons un estimateur empirique de cette espérance structurelle et en montrons la consistance et la normalité asymptotique
In the first part of this thesis, we describe a travel time forecasting method on the Parisian motorway network. This method is based on a mixture model. Parameters are estimated by an automatic classification method and a training concept. The second part is devoted to the study of a semi-parametric curve translation model. Estimates are carried out by an M-estimation method. We show the consistency and the asymptotic normality of the estimators. In the third part, we widen the function warping model by considering that the warping functions result from a random process. That enables us to define, in an intrinsic way, a concept of structural expectation and thus to get round the non identifiability of the model. We propose an empirical estimator of this structural expectation and we show consistency and asymptotic normality
APA, Harvard, Vancouver, ISO, and other styles
33

Meredieu, Céline. "Croissance et branchaison du pin laricio (Pinus nigra Arnold ssp laricio (Poiret) Maire) : élaboration et évaluation d'un système de modèles pour la prévision de caractéristiques des arbres et du bois." Lyon 1, 1998. http://www.theses.fr/1998LYO10242.

Full text
Abstract:
Un systeme de modeles permettant de predire la croissance et la branchaison de peuplements reguliers de pin laricio (pinus nigra arnold ssp. Laricio (poiret) maire) est mis au point a partir des donnees d'un reseau experimental et d'analyses de tiges. Le modele de croissance, de type arbre, independant des distances, prevoit l'evolution des tiges de tous diametres. Il inclut 5 relations qui decrivent la croissance en hauteur dominante et en diametre, la liaison hauteur - diametre, la mortalite et le profil de tige. La croissance en hauteur dominante integre un effet lie a l'espacement relatif moyen entre arbres. La relation de croissance en diametre, derivee du type potentiel x reducteurs est appliquee a chaque arbre representatif d'une classe de diametre et tient compte de l'accroissement potentiel en hauteur dominante, de la densite du peuplement et d'un statut concurrentiel. Le modele de branchaison, a base mixte dendrometrique et architecturale, permet de reconstituer les principales caracteristiques des branches de chaque arbre a partir de variables (hauteur totale, diametre et age) qui constituent le lien avec le modele de croissance. Sept relations predisent les differents niveaux de houppier, le nombre de branches par verticille, leur etat vital, leur longueur ainsi que deux variables estimees conjointement : le diametre et l'angle d'insertion. L'evaluation concerne 4 relations, a l'aide d'un echantillon independant ou par la methode du bootstrap, ainsi que le systeme dans sa globalite par des simulations mettant en jeu l'ensemble des relations. Integre a un logiciel de simulation destine a la gestion forestiere, ce systeme de modeles constitue un outil d'elaboration et de choix d'itineraires sylvicoles. Il prevoit les dimensions du peuplement, des arbres, ainsi que la structure interne de leur tige (empilement des cernes, variables de branchaison explicatives de la nodosite), necessaire a l'evaluation de la qualite des bois ronds et des sciages.
APA, Harvard, Vancouver, ISO, and other styles
34

Noirot, Pierre-Antoine. "Logiciels d'étude et de prévision des extractions par solvants : application à la valorisation des solutions de chlorure de nickel." Lille 1, 1985. http://www.theses.fr/1985LIL10129.

Full text
Abstract:
L'extraction liquide-liquide des métaux connaît un développement spectaculaire lié à la nécessité de traiter des minerais toujours plus pauvres ou plus complexes, ainsi qu'à la demande de métaux de pureté croissante. Afin de maîtriser cette opération tout en réduisant les expérimentations préliminaires, un modèle général a été proposé pour la prédiction des équilibres de partage. Il s'appuie sur les phénomènes réels et ne présente aucune restriction quant aux mécanismes ou à la composition ionique de la phase aqueuse. Les paramètres caractéristiques sont les concentrations des réactants, les constantes thermodynamiques des espèces formées ainsi que les coefficients d'interaction nécessaires au calcul des coefficients d'activité. Des logiciels de simulation des données et d'affinement des paramètres inconnus ont été réalisés. Ils ont été appliqués à l'étude de l'extraction de Co2+, Cu2+ et Mn2+, en milieu chlorure (NiCl2, LiCl) par un système extractant composé de tri-iso-octylamine, d'un tiers solvant et d'un diluant hydrocarboné. Une représentation très fidèle des données expérimentales est obtenue, permettant des extrapolations d'une excellente fiabilité. Le modèle a été utilisé pour le calcul et l'optimisation des installations d'extraction à contre courant, grâce à un programme approprié. Divers agencements ont ainsi été testés, en vue de la séparation de Co2+, Cu2+ et de Mn2+, des solutions industrielles de chlorure de nickel.
APA, Harvard, Vancouver, ISO, and other styles
35

Rugishi, Muhindo G. "Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs." Doctoral thesis, Université Laval, 2007. http://hdl.handle.net/20.500.11794/19318.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Seiller, Gregory. "Évaluation de la sensibilité des projections hydrologiques au choix des outils hydro-météorologiques globaux conceptuels - Approche multimodèle." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30064/30064.pdf.

Full text
Abstract:
La modélisation des impacts des changements climatiques sur les ressources hydriques d’un territoire est une préoccupation grandissante pour la communauté scientifique œuvrant dans les domaines des ressources en eau. Cette tâche est complexe car elle recèle de nombreuses incertitudes se cumulant lors du processus de modélisation, de la définition des scénarios de gaz à effet de serre jusqu’à la réalisation des projections hydrologiques. L’ensemble des outils de modélisation employés influence alors potentiellement notre capacité à réaliser un diagnostic des impacts des changements climatiques. Dans ce contexte, l’incertitude de modélisation associée à 20 modèles hydrologiques globaux conceptuels, 24 formules d’évapotranspiration potentielle et 7 modules de neige a été évaluée sur deux bassins versants : au Saumon (Province de Québec, Canada) et Schlehdorf (État de la Bavière, Allemagne). Les travaux menés cherchent à apprécier dans un premier temps la capacité de transposabilité des modèles hydrologiques ainsi que matérialiser l’intérêt d’une approche multimodèle dans ce contexte de changements climatiques. Par la suite, la démarche évalue la contribution des différents outils à l’incertitude cumulée, puis cherche à comprendre l’origine de leur sensibilité. Cette analyse s’appuie sur l’usage de critères de performance, de représentations graphiques des écoulements, d’outils statistiques et d’indicateurs hydrologiques du changement. Les incertitudes liées aux membres climatiques sont également évaluées pour le bassin versant québécois et permettent une comparaison avec les outils principalement étudiés. Les résultats révèlent que notre capacité à produire un diagnostic de l’incidence du changement climatique sur le régime hydrique des deux bassins versants est distinctement affectée par le choix des outils hydro-météorologiques globaux conceptuels. Chacun de ceux-ci ajoute à l’incertitude avec cependant une plus grande prédominance liée au choix des formules d’évapotranspiration potentielle et des modèles hydrologiques, les modules de neige étant eux plus transparents. Néanmoins, l’analyse comparative indique que le choix du membre climatique apporte encore plus à l’incertitude cumulée que les outils spécifiquement évalués. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques de deux bassins, ainsi que de proposer une démarche méthodologique originale pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Modeling climate change impacts on water resources remains one of the major challenges for the scientific community. This task is complex and contains numerous cumulated uncertainties all along the modeling process, from the greenhouse gas scenarios definition to the hydrological projections. All the modeling tools can thus potentially affect our ability to render a diagnosis of the impacts of climate changes on water resources. In this context, modeling uncertainty related to 20 lumped conceptual hydrological models, 24 potential evapotranspiration formulations, and 7 snow modules was evaluated on two catchments: au Saumon (Province of Quebec, Canada) and Schlehdorf (State of Bavaria, Germany). This work first assessed the transposability in time of the hydrological models and examined the interest of the multimodel approach in a climate change context. Then, contribution of the different tools to cumulated uncertainty is evaluated, followed by an investigation of individual sensitivity origins. This analysis was based on performance criteria, discharge graphical displays, statistics tools, and hydrological indicators of changes in water resources. More, uncertainties related to climatic members are also appraised on the Quebec catchment to allow a direct comparison with the principal studied tools. Results demonstrated that our capacity to render a diagnosis of the impacts of climate change on water resources on the two studied catchments was highly connected to the choice of the hydro-meteorological lumped modeling tools. Each one contributed to the total uncertainty; however, with a larger prevalence for the potential evapotranspiration formulations and hydrological models, snow modules being more neutral. Nevertheless, comparative analysis showed that the selection of a climatic member was affecting the total uncertainty the most. This research proposed a detailed analysis on our capacity to realise a diagnosis of the impacts of climate change on water resources for two studied catchments and provided a specific and original methodology directly applicable and adjustable to other hydro-climatic contexts.
APA, Harvard, Vancouver, ISO, and other styles
37

Jardet, Caroline. "Fondamentaux macroéconomiques, politique monétaire et structure par terme des taux d'intérêt." Paris 1, 2004. http://www.theses.fr/2004PA010025.

Full text
Abstract:
L'objectif de cette thèse est d'étudier l'influence des fondamentaux macroéconomiques et de la politique monétaire sur la courbe des taux d'intérêt. Sur le plan théorique on montre que le modèle d'équilibre général dynamique et stochastique peine à reproduire une courbe des taux croissante en moyenne. Par ailleurs des simulations réalisées à partir d'une version monétaire de ce modèle mettent en évidence qu'un contrôle plus strict de l'inflation par les autorités monétaires entraîne une perte du pouvoir prévisionnel de la courbe des taux. Sur le plan empirique, on met en évidence l'influence significative des fondamentaux économiques sur la courbe des taux grâce à l'estimation d'une représentation vectorielle autorégressive à correction d'erreurs. On montre également que le pouvoir prévisionnel de la pente de la courbe des taux disparaît aux États-unis au début des années 1980. Ce phénomène est expliqué par une baisse des contributions des chocs d'ofue et de politique monétaire.
APA, Harvard, Vancouver, ISO, and other styles
38

Caian, Mihaéla. "Maille variable ou domaine limité : quelle solution choisir pour la prévision à échelle fine ?" Toulouse 3, 1996. http://www.theses.fr/1996TOU30226.

Full text
Abstract:
Deux solutions pour l'ecoulement 3d atmospherique hydrostatique sont comparees sur un domaine d'interet: la solution du probleme mixte aux conditions initiales et a la limite, et celle globale du probleme initial sur une sphere virtuelle. Cette derniere, obtenue via une transformation homothetique definie par un pole de dilatation et par un coefficient d'etirement, donne une solution en maille variable sur la sphere reelle. Le but est d'etablir la limite de l'etirement pour laquelle l'augmentation de celui-ci entraine une meilleure precision, et pour quel cout de calcul. La convergence de la solution en maille variable est etudiee sur la sphere reelle: un critere de pseudo-equivalence avec la convergence en maille uniforme est defini. La stabilite des solutions numeriques est analysee par le comportement des spectres de l'energie cinetique. L'existence d'un intervalle de nombres d'onde pour lequel les deux solutions ont un meme type de convergence suivant la troncature est montree. Quand l'etirement augmente cet intervalle s'annule. La validite temporelle des deux solutions a meso-echelle est analysee par un algorithme de previsibilite dynamique. Une limite de l'etirement satisfaisant les deux contraintes de precision et d'efficacite est trouvee. Ces resultats ont ete aussi confirmes sur des situations meteorologiques reelles
APA, Harvard, Vancouver, ISO, and other styles
39

Kopoin, Alexandre. "Three essays in financial frictions and international macroeconomics." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25526.

Full text
Abstract:
Cette thèse examine le rôle des frictions financières qui émergent des asymétries d’information dans les marchés financiers sur la propagation des chocs, et sur les fluctuations économiques. Le premier essai utilise la modélisation factorielle dynamique ciblée pour évaluer la contribution des données nationales et internationales sur la question de la prévision du PIB des provinces du Canada. Les résultats indiquent que l’utilisation des données nationales et internationales, principalement les données américaines, améliore significativement la qualité des prévisions. De plus, cet effet est présent et significatif pour les horizons de court terme (moins d’un an), mais disparait pour les prévisions de long terme. Ceci suggère que les chocs qui prennent naissance au niveau national ou international sont transmis aux provinces, et donc reflétés dans les séries chronologiques régionales assez rapidement. Tandis que le premier essai aborde la question de la transmission des chocs à l’aide d’un modèle macro-économétrique non-structurel, les deux derniers essais développent des modèles d’équilibre général dynamique stochastique (DSGE) pour analyser les effets des frictions financières sur la propagation des chocs nationaux et internationaux. Ainsi, le deuxième essai présente un modèle DSGE dans un cadre international avec des frictions financières. Le cadre théorique comprend le mécanisme d’accélérateur financier, les canaux du capital bancaire et du taux de change. Les résultats suggèrent que le canal du taux de change, longtemps ignoré, joue un rôle primordial dans la propagation des chocs. De plus, en maintenant les trois canaux de transmission, les chocs nationaux et internationaux jouent un rôle important dans l’explication des fluctuations macroéconomiques. Par ailleurs, les résultats montrent aussi que les économies les mieux capitalisées réagissent mieux que celles avec une capitalisation bancaire plus faible lorsqu’il advient un choc négatif. Ces résultats soulignent l’importance du capital bancaire dans une perspective internationale et peuvent contribuer à enrichir le débat mondial sur la régulation bancaire. Le troisième essai, à travers un modèle DSGE à deux pays avec des frictions financières, analyse l’effet des activités bancaires transfrontalières sur la propagation des chocs nationaux et internationaux, et sur la synchronisation des cycles économiques. Les résultats suggèrent que la présence d’activité bancaire transfrontalière amplifie l’effet des chocs de productivité et de politique monétaire. Cependant, l’impact sur la consommation est plus faible à cause des possibilités de lissage à travers les dépôts inter-pays. De plus, les résultats montrent que les corrélations bilatérales entre les agrégats macroéconomiques deviennent plus importantes en présence d’activités bancaires transfrontalières.
This dissertation investigates the role of financial frictions stemming from asymmetric information in financial markets on the transmission of shocks, and the fluctuations in economic activity. Chapter 1 uses the targeted factor modeling to assess the contribution of national and international data to the task of forecasting provincial GDPs in Canada. Results indicate using national and especially US-based series can significantly improve the forecasting ability of targeted factor models. This effect is present and significant at shorter-term horizons but fades away for longerterm horizons. These results suggest that shocks originating at the national and international levels are transmitted to Canadian regions and thus reflected in the regional time series fairly rapidly. While Chapter 1 uses a non-structural, econometric model to tackle the issue of transmission of international shocks, the last two Chapters develop structural models, Dynamic Stochastic General Equilibrium (DSGE) models to assess spillover effects of the transmission of national and international shocks. Chapter 2 presents an international DSGE framework with credit market frictions to assess issues regarding the propagation of national and international shocks. The theoretical framework includes the financial accelerator, the bank capital and exchange rate channels. Results suggest that the exchange rate channel, which has long been ignored, plays an important role in the propagation of shocks. Furthermore, with these three channels present, domestic and foreign shocks have an important quantitative role in explaining domestic aggregates. In addition, results suggest that economies whose banks remain well-capitalized when affected by adverse shock experience less severe downturns. These results highlight the importance of bank capital in an international framework and can be used to inform the worldwide debate over banking regulation. In Chapter 3, I develop a two-country DSGE model in which banks grant loans to domestic as well as to foreign firms to study effects of these cross-border banking activities in the transmission of national and international shocks. Results suggests that cross-border banking activities amplify the transmission of productivity and monetary policy shocks. However, the impact on consumption is limited, because of the cross-border saving possibility between the countries. Moreover, results suggests that under cross-border banking, bilateral correlations become greater than in the absence of these activities. Overall, results demonstrate sizable spillover effects of cross-border banking in the propagation of shocks and suggest that cross-border banking is an important source of the synchronization of business cycles.
APA, Harvard, Vancouver, ISO, and other styles
40

Njimi, Hassane. "Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique." Doctoral thesis, Universite Libre de Bruxelles, 2008. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210441.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Flageollet, Alexis. "Prévision de l'inflation et analyse des cycles économiques dans un environnement riche en données : une application des modèles à facteurs dynamiques à la zone euro." Paris 10, 2006. http://www.theses.fr/2006PA100044.

Full text
Abstract:
Nous mettons en œuvre des stratégies de modélisation cohérentes avec les problèmes que soulèvent l'étude de la zone euro et les préoccupations d'une banque centrale. Nous cherchons à vérifier l'utilité sur le plan opérationnel d'exploiter une masse d'information hétérogène et importante pour prévoir l'inflation, et pour en extraire les fluctuations économiques responsables des développements inter-économies. Dans ce but, nous avons eu recours aux derniers apports de la théorie statistique en matière de modèles à facteurs, lesquels nous permettent d'appliquer ces modèles à un grand nombre de données non stationnaires. L'objet méthodologique principal de la thèse est de distinguer à la fois les effets communs aux pays des effets spécifiques, et les phénomènes de court/moyen terme des phénomènes de long terme. Le pouvoir prédictif de cette synthèse de l'information sur l'inflation est aussi examiné et comparé en particulier à celui d'un modèle faisant appel à la théorie économique
We have implemented several modeling strategies which are consistent with specific issues of the euro area, i. E. : the increasing amount of information available for euro area as well as the main concerns of the European Central Bank. In this thesis, we have investigated whether it is worth exploiting a large and heterogeneous set of data in order to forecast inflation and extract the common economic fluctuations in the euro area. The recent developments in statistics have allowed us to apply factor models to a large number of non-stationary data. We have been mainly focusing on providing a methodological approach in order to distinguish common effects from specific country effects on the one hand and short run dynamics from long run dynamics on the other hand. Finally, we have compared the forecasting performances of factor models to several indicator models and to a smaller-dimension model based on economic theory
APA, Harvard, Vancouver, ISO, and other styles
42

Bengoubou-Valérius, Mendy. "Contribution à la connaissance de l'aléa sismique des Antilles Françaises : analyses des données sismologiques et accélérométriques régionales." Antilles-Guyane, 2008. https://tel.archives-ouvertes.fr/tel-00409021.

Full text
Abstract:
L'arc des Petites Antilles situé sur la bordure nord-est de la plaque Caraïbe, résulte d'un phénomène de subduction, les plaques américaines plongeant sous celle de la Caraïbe avec une vitesse de 2 cm/an. Les Antilles Françaises représentent la région française ou le risque sismique est le plus important. Ce travail dont l'objectif est d'améliorer la connaissance de l'aléa sismique dans les Antilles Françaises, repose sur les données du réseau accélérométrique permanent (RAP) et sur celles du « Centre de Données des Antilles Françaises ». L'analyse de ces données permet de mieux contraindre la sismicité de l'arc. Deux zones de très faible sismicité sont mises en évidence: au nord près des Iles Vierges et au sud entre Sainte-Lucie et Grenade. D'autres points sont aussi résolus: imagerie de la subduction le long de l'arc, relations entre la sismicité superficielle et la tectonique active, variations de la pente (b-value) de la loi de Gutenberg-Richter. Le séisme majeur du 21 novembre 2004 Mw=6. 3 est au coeur des deux derniers chapitres. Plusieurs aspects y sont présentés: macrosismicité avec l'évaluation d'intensités EMS98 obtenues du dépouillement de formulaires individuels recueillis pour les Iles des Saintes, et relocalisation par la méthode de maître/esclave du choc principal et de sa plus forte réplique du 14 février 2005, de façon à mieux contraindre l'imagerie de la source du choc principal, étape primordiale pour la dernière partie portant sur la modélisation des signaux du choc principal des Saintes en utilisant une approche semi-empirique basée sur un modèle stochastique large-bande et des fonctions de Green empiriques sélectionnées parmi les répliques
The Lesser Antilles is an area of high volcanic and earthquake activity, characterized by a 1000 km convergence zone resulting from the Atlantic plate subduction under the Caribbean plate with a slow convergent motion (2 cm/year). With five years of available data, the CDSA data base presents a more homogeneous vision of lesser Antilles arc seismicity and allows detecting low seismic activity zones, in the north near the Virgin Islands, and in the south between St-Lucia and Grenada. The accuracy improvements of location is used to better study the relationship between tectonic structures and seismicity, to better define the subduction slab geometry, and to analyse the spatial variations of the Gutenberg-Richter law b-value. Concerning the 21 november 2004 les Saintes earthquake, EMS98 intensities in les Saintes islands were evaluated from an individual request in les Saintes islands and hypocenter relocalisations of the les Saintes earthquake and the biggest aftershock of 14 february 2005 were made using a method of master/slave in order to contrain the seismic source of the mainchock. As seismic hazard assessment depends trom strong ground motion generated by earthquakes, the last part of this work concerns modeling accelerometric records of the les Saintes earthquakes, combining a composite source model with an empirical Green Function technique. In our study, we used les Saintes aftershocks as empirical green function
APA, Harvard, Vancouver, ISO, and other styles
43

Laburthe, François. "Problème de stabilité linéaire et prévision de la transition dans des configurations tridimensionnelles, incompressibles et compressibles." Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0019.

Full text
Abstract:
Le travail présent concerne l'étude de la transition laminaire-turbulent dans la couche limite tridimensionnelle. Il comporte trois parties. La première est consacrée à une étude bibliographique qui fait une revue rapide de résultats connus concernant les phénomènes prenant place dans la couche limite. Cette étude est menée grâce à la théorie de stabilité linéaire. Des phénomènes transitionnels concernant les écoulements bi- et tridimensionnels sont donnés. La méthode du eN, qui permet une estimation de l'abscisse de transition, est ensuite présentée en détail. La deuxième partie consiste en l'analyse de trois problèmes: la stratégie d'optimisation de l'amplification, la stratégie d'intégration et la courbure. On s'est particulièrement attaché à l'étude du dernier problème. En effet, la prise en compte de la forme du profil d'aile ainsi que la déformation du repère modifient sensiblement les résultats. Le développement de méthodes liées à ces problèmes a ensuite été intégré dans un code de calcul qui est décrit en détail. Dans la dernière partie, on met en œuvre les outils développés précédemment en les appliquant à sept configurations. Cinq d'entre elles s'appuient sur des expériences réalisées dans diverses souffleries avec des écoulements qui vont de l'incompressible au supersonique. Les applications permettent de discuter la validité de certaines hypothèses et montrent les limitations de la méthode du eN.
APA, Harvard, Vancouver, ISO, and other styles
44

Bergeron, Guyard Alexandre. "Finding Optimal Paths on Dynamic Road Networks." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25830/25830.pdf.

Full text
Abstract:
Ce document examine différentes méthodes pour calculer des chemins optimaux sur des graphes dynamiques. Deux grandes approches sont comparées: l’approche déterministe et l’approche probabiliste. L’approche déterministe prend pour acquise une certaine connaissance préalable des changements à venir dans l’environnement. L’approche probabiliste tente de modéliser et traiter l’incertitude. Une variante dynamique de l’algorithme de Dijkstra est détaillée dans le contexte déterministe. Les paradigmes des Markov Decision Processes (MDP) et Partially Observable Markov Decision Processes sont explorés dans le cadre du problème probabiliste. Des applications et mesures sont présentées pour chaque approche. On constate une relation inverse entre la calculabilité des approches proposées et leur potentiel d’application pratique. L’approche déterministe représente une solution très efficace à une version simplifiée du problème. Les POMDP s’avèrent un moyen théorique puissant dont l’implantation est impossible pour des problèmes de grande taille. Une alternative est proposée dans ce mémoire à l’aide des MDP.
This document examines different methods to compute optimal paths on dynamic graphs. Two general approaches are compared: deterministic and probabilistic. The deterministic approach takes for granted knowledge of the environment’s future behaviour. The probabilistic approach attempts to model and manage uncertainty. A dynamic version of Dijkstra’s algorithm is presented for the deterministic solution. Markov Decision Processes and Partially Observable Markov Decision Processes are analysed for the probabilistic context. Applications and measures of performance are given for each approach. We observe a reverse relationship between computability and applicability of the different approaches. Deterministic approaches prove a fast and efficient way to solve simpler versions of the problem. POMDPs are a powerful theoretical model that offers little potential of application. An alternative is described through the use of MDPs.
APA, Harvard, Vancouver, ISO, and other styles
45

Moulin, Laetitia. "Prévision des crues rapides avec des modèles hydrologiques globaux : application aux bassins opérationnels de la Loire supérieure : évaluation des modélisations, prise en compte des incertitudes sur les précipitations moyennes spatiales et utilisation de prévisions météorologiques." Paris, AgroParisTech, 2007. http://pastel.paristech.org/5392/01/MOULIN_et_couverture.pdf.

Full text
Abstract:
Ce travail propose d’évaluer, dans le cas des bassins versants de la Loire supérieure, l’intérêt de modèles pluie-débit globaux pour la prévision opérationnelle des crues rapides. Après une description du bassin à Bas-en-Basset, l’analyse critique des jeux de données disponibles met en évidence leur richesse, mais aussi leurs défauts. La grande variété des événements hydrométéorologiques touchant ces bassins apparaît particulièrement intéressante pour comparer des modèles hydrologiques. Des modèles conceptuels simples sont apparus plus robustes et souvent plus performants que des modèles statistiques ou des réseaux de neurones artificiels. Des critères spécifiques à la prévision des crues mettent en évidence les informations sur l’évolution immédiate des débits apportées par la transformation de la pluie en débit, même si les erreurs de modélisation restent importantes et finalement proches d’un modèle à l’autre. Un effort particulier a été porté sur l’estimation par krigeage des précipitations moyennes spatiales, pour lesquelles un modèle d’erreur est proposé et validé sur les données. Ces incertitudes, propagées dans les modèles pluie-débit, contribuent, selon la taille des bassins, à une part variable de l’erreur totale de modélisation. Enfin un travail exploratoire a montré l’intérêt d’inclure des prévisions de pluies probabilisées dans une chaîne hydrométéorologique, pour augmenter les délais d’anticipation et prendre en compte les incertitudes associées. Toutefois, la disponibilité de ces prévisions impose des traitements préalables à leur utilisation. Il ressort que des outils simples peuvent laisser envisager des améliorations dans ce domaine encore très perfectible de la prévision des crues
The aim of the present work is the evaluation of lumped rainfall-runoff (RR) models for flood forecasting in the case of upper Loire river catchments. Following the description of Loire catchment at Bas-en-Basset, an analysis demonstrates both the worth and the flaws of presently available data sets. The high variability of these hydrometeorological events enables us to compare RR models in particularly difficult but interesting contexts. Simple conceptual models appear more robust and often more efficient than data-driven models. A further evaluation, based on specific criteria for flood forecasting, highlight the information about flood evolution provided by conceptual RR models, even though modelling errors remain altogether significant while the various models behave in a similar way. Estimation of mean areal precipitation is conducted with kriging tools and a model of uncertainty on mean areal precipitation estimation is proposed and validated on data. These uncertainties are then propagated within RR models. Their impact is reasonably different with respect to catchment size, as a variable part of the global modelling error may be explained. Finally, an exploratory work has demonstrated the usefulness of taking into account probabilistic precipitation forecast into a hydrometeorological chain: longer anticipation has consequently been obtained. Although pre-processing linked to these forecast availability is absolutely necessary As a conclusion, simple tools let us expect improvements in this very perfectible field
APA, Harvard, Vancouver, ISO, and other styles
46

Dupland, Laure. "Modélisation de la turbulence thermique : modèles algébriques pour la prévision des flux de chaleur turbulents." Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0023.

Full text
Abstract:
Cette thèse traite des modèles thermiques algébriques explicites EAHFM pour la prévision des flux de chaleur turbulents. Moyennant une condition d’équilibre local de la turbulence, l’équation de transport de ces derniers se simplifie en une relation algébrique, s'affranchissant de l'hypothèse de nombre de Prandtl turbulent constant. Le flux de chaleur résultant est alors désaligné du gradient de température moyenne, palliant ainsi les défauts des modèles à diffusivité turbulente. L'expression du flux de chaleur turbulent dépendant des quatre échelles de la turbulence dynamique et thermique (k, ε, k[indice ϑ] et ε[indice ϑ]), la résolution de leur équation de transport est requise. Toutefois, en supposant constant le rapport r des temps caractéristiques de la turbulence, on s’exempte de la résolution des deux équations de transport thermiques. Des contraintes sur les constantes du modèle ont été développées de manière à satisfaire certains comportements physiques de base : écoulements homogènes et couche limite soumise ou non à un gradient de pression adverse. Un jeu de constantes a pu être obtenu dans chacune des deux approches (hypothèse sur r constant ou non). Un modèle de paroi a été développé de sorte que les composantes du flux de chaleur s’amortissent correctement au voisinage d’une paroi. Le modèle ainsi obtenu a été dans un premier temps appliqué aux écoulements de similitude, puis sa version simplifiée en association avec le modèle à deux équations k-kL en formulation EARSM a été implantée dans le code Navier-Stokes elsA de l'ONERA pour être validée sur les écoulements de plaque plane chauffée, de jet débouchant et de jet impactant une paroi chauffée.
APA, Harvard, Vancouver, ISO, and other styles
47

Coevoet, Marie-Agnès. "Études théoriques et expérimentales de structures dynamiques non-linéaires dans le métabolisme du glucose chez Saccharomyces cerevisiae." Compiègne, 1998. http://www.theses.fr/1998COMP1138.

Full text
Abstract:
Le comportement stationnaire et dynamique de la voie haute de la glycolyse est étudié dans des extraits acellulaires de levure. Le système centré sur le cycle PFK/FDPase contient la pyruvate kinase, l'adénylate kinase et la phosphoglucose isomérase. Le système réactionnel opère dans des conditions thermodynamiques ouvertes maintenues par une alimentation en continu en substrats (le glucose 6-phosphate, l'ATP et le PEP). Pour des conditions expérimentales particulières, des modifications de la charge énergétique d'entrée peuvent provoquer des transitions entre les états stationnaires qui sont réversibles (comme il apparaît dans les phénomènes classiques d'hystérèse) ou qui sont irréversibles (le système n'est plus capable de retourner à l'état initial). A partir du même modèle qualitatif, une variation de la charge énergétique d'entrée provoque l'apparition de branches non-connectées. Dans de telles structures liées à la bistabilité, aucune transition entre les deux branches stables coexistantes n'est possible, définissant des états stationnaires non-équivalents. Les différentes transitions peuvent avoir des implications biologiques en relation avec des commutations, l'adaptation et des phénomènes de mémoire.
APA, Harvard, Vancouver, ISO, and other styles
48

Roquelaure, Stevie. "Prévision d'ensemble locale des brouillards et nuages bas à l'aéroport International de Roissy Charles De Gaulle." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/101/.

Full text
Abstract:
Un système de prévision d'ensemble locale (LEPS-Local Ensemble Prediction System) ciblant la prévision des brouillards et nuages bas sur l'aéroport international de Paris Charles de Gaulle a été développé pour la prévision courte échéance du risque d'occurrence de conditions LVP (Low visibility Procedure - visibilité < 600m et/ou plafond < 60m). Les sources d'incertitudes sur les entrées du modèle numérique COBEL-ISBA ont été identifiées sur les conditions initiales et sur les forçages de mésoéchelle. Une calibration bayesienne (BMA-Bayesian Model Averaging) a été appliquée sur l'ensemble afin d'améliorer la fiabilité du système. La validation de LEPS montre que ce système probabiliste fournit des prévisions fiables de courte échéance du risque d'occurrence de conditions LVP sur l'aéroport de Paris Charles de Gaulle. Si bien que LEPS ouvre des perspectives intéressantes pour la planification des vols, la sécurité et la gestion de la plate-forme aéroportuaire
A Local Ensemble Prediction System (LEPS) designed for fog and low clouds short range prediction at Paris Charles de Gaulle airport is developed for providing short range likelihood of LVP (Low Visibility Procedure - visibility < 600m and/or ceiling < 60m) conditions over the airport. LEPS relies on the local operational deterministic prediction scheme COBEL-ISBA of LVP conditions used at Charles de Gaulle airport. The sources of uncertainty on COBEL-ISBA inputs have been identified for both the initial conditions and the mesoscale. A Bayesian Model Averaging (BMA) calibration has been applied to improve the raw ensemble reliability. LEPS validation shows that this probabilistic system provides reliable short range forecast of the likelihood of LVP conditions over Charles de Gaulle airport. As a consequence, LEPS open up interesting perspectives for flight scheduling and the airport safety and management
APA, Harvard, Vancouver, ISO, and other styles
49

Mathieu, Jordane. "Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE006/document.

Full text
Abstract:
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde
In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world
APA, Harvard, Vancouver, ISO, and other styles
50

Baey, Charlotte. "Modélisation de la variabilité inter-individuelle dans les modèles de croissance de plantes et sélection de modèles pour la prévision." Phd thesis, Ecole Centrale Paris, 2014. http://tel.archives-ouvertes.fr/tel-00985747.

Full text
Abstract:
La modélisation de la croissance des plantes a vu le jour à la fin du XXème siècle, à l'intersection de trois disciplines : l'agronomie, la botanique et l'informatique. Après un premier élan qui a donné naissance à un grand nombre de modèles, un deuxième courant a vu le jour au cours de la dernière décennie pour donner à ces modèles un formalisme mathématique et statistique. Les travaux développés dans cette thèse s'inscrivent dans cette démarche et proposent deux axes de développement, l'un autour de l'évaluation et de la comparaison de modèles, et l'autre autour de l'étude de la variabilité inter-plantes. Dans un premier temps, nous nous sommes intéressés à la capacité prédictive des modèles de croissance de plantes, en appliquant une méthodologie permettant de construire et d'évaluer des modèles qui seront utilisés comme outils prédictifs. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de chaque modèle, puis les capacités prédictives des modèles sont comparées à l'aide de critères appropriés. %Cette étude a été appliquée au cas de la betterave sucrière. La deuxième partie de la thèse concerne la prise en compte de la variabilité inter-individuelle dans les populations de plantes. %Il existe en effet une forte variabilité entre plantes, d'origine génétique ou environnementale, dont il est nécessaire de tenir compte. Nous proposons dans cette thèse une approche basée sur l'utilisation de modèles (non linéaires) à effets mixtes pour caractériser cette variabilité. L'estimation paramétrique par maximum de vraisemblance nécessite l'utilisation de versions stochastiques de l'algorithme d'Espérance Maximisation basées sur des simulations de type Monte Carlo par Chaîne de Markov. Après une première application au cas de l'organogenèse chez la betterave sucrière, nous proposons une extension du modèle structure-fonction Greenlab à l'échelle de la population.%, appliqué aux cas de la betterave sucrière et du colza.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography