Дисертації з теми "Probabilités – Prévision"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Probabilités – Prévision.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-35 дисертацій для дослідження на тему "Probabilités – Prévision".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Houdant, Benoît. "Contribution à l'amélioration de la prévision hydrométéorologique opérationnelle : pour l'usage des probabilités dans la communication entre acteurs." Phd thesis, ENGREF (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00000925.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés portent sur l'évaluation de la performance des centres opérationnels de prévision hydrométéorologique d'EDF. Une première approche consiste à calculer la valeur économique de l'information de prévision pour l'usager en charge de l'optimisation de la production hydroélectrique. La prévision probabiliste permet ensuite de formaliser une partie du savoir du prévisionniste qui n'était jusqu'alors fournie à l'usager que de manière qualitative et occasionnelle: les informations concernant les incertitudes de prévision, particulièrement en ce qui concerne la prévision d'événements rares et sévères (précipitations intenses, crues, tempêtes, etc.). Un protocole mis en place de manière semi-opérationnelle amène le prévisionniste à exprimer sa prévision courante dans la langue des probabilités: il traduit alors ses incertitudes de prévision en termes quantitatifs. Les prévisions probabilistes ainsi obtenues apportent une information plus riche et mieux adaptée aux enjeux de l'usager en charge de la sûreté des installations hydroélectriques. La prévision probabiliste permet également de révéler le comportement de l'expert confronté aux limites de son savoir. Nous analysons plusieurs défauts qui entachent le jugement du prévisionniste, tels que la "surconfiance" (sous-estimation par l'expert de ses propres incertitudes), le biais (surestimation ou sous-estimation systématique de certaines variables à prévoir), et l'aversion à l'incertitude (difficulté pour l'expert de parier sur ses propres incertitudes). Si la prévision probabiliste est encore peu usitée dans la plupart des centres de prévisions, elle s'avère pourtant applicable dans un contexte opérationnel. Nous donnons donc des préconisations pratiques pour dépasser les réticences des prévisionnistes et usagers à l'égard de ce nouveau mode de communication des incertitudes.
2

Akil, Nicolas. "Etude des incertitudes des modèles neuronaux sur la prévision hydrogéologique. Application à des bassins versants de typologies différentes." Electronic Thesis or Diss., IMT Mines Alès, 2021. http://www.theses.fr/2021EMAL0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les crues et les sécheresses sont deux des risques majeurs en France et nécessitent une attention particulière. Dans ces conditions où le changement climatique engendre des phénomènes extrêmes de plus en plus fréquents, la modélisation de ces risques est désormais un élément incontournable pour la gestion de la ressource en eau.Actuellement, les débits ou hauteurs d’eau sont principalement anticipés à partir de modèles à base physique ou conceptuelle. Bien qu’efficaces et nécessaires, la calibration et la mise en œuvre de ces modèles nécessitent la réalisation d’études longues et coûteuses.Dans ce contexte, cette thèse, soutenue par l’IMT Mines Alès et conjointement financée par la société aQuasys et l’ANRT, a pour objectif de développer des modèles issus du paradigme systémique. Ceux-ci nécessitent uniquement des connaissances a priori basiques sur la caractérisation physique du bassin étudié, et qui peuvent être calibrés à partir des seules informations d’entrées et de sorties (pluies et débits/hauteurs).Les modèles les plus utilisés dans le monde environnemental sont les réseaux neuronaux, qui sont utilisés sur ce projet. Cette thèse cherche à répondre à trois objectifs principaux :1. Élaboration d’une méthode de conception de modèle adaptée aux différentes variables (débits/hauteur des eaux de surface) et à des bassins de types très différents : bassins versants ou bassins hydrogéologiques (hauteur des eaux souterraines)2. Évaluation des incertitudes liées à ces modèles en fonction des types de bassins visés3. Réduction de ces incertitudesPlusieurs bassins sont utilisés pour répondre à ces problématiques : la nappe du bassin du Blavet en Bretagne et le bassin de la nappe de la Craie de Champagne sud et Centre
Floods and droughts are the two main risks in France and require a special attention. In these conditions, where climate change generates increasingly frequent extreme phenomena, modeling these risks is an essential element for water resource management.Currently, discharges and water heights are mainly predicted from physical or conceptual based models. Although efficient and necessary, the calibration and implementation of these models require long and costly studies.Hydrogeological forecasting models often use data from incomplete or poorly dimensioned measurement networks. Moreover, the behavior of the study basins is in most cases difficult to understand. This difficulty is thus noted to estimate the uncertainties associated with hydrogeological modeling.In this context, this thesis, supported by IMT Mines Alès and financed by the company aQuasys and ANRT, aims at developing models based on the systemic paradigm. These models require only basic knowledge on the physical characterization of the studied basin, and can be calibrated from only input and output information (rainfall and discharge/height).The most widely used models in the environmental world are neural networks, which are used in this project. This thesis seeks to address three main goals:1. Development of a model design method adapted to different variables (surface water flows/height) and to very different types of basins: watersheds or hydrogeological basins (groundwater height)2. Evaluation of the uncertainties associated with these models in relation to the types of targeted basins3. Reducing of these uncertaintiesSeveral basins are used to address these issues: the Blavet basin in Brittany and the basin of the Southern and Central Champagne Chalk groundwater table
3

Carraro, Laurent. "Questions de prédiction pour le mouvement brownien et le processus de Wiener à plusieurs paramètres." Lyon 1, 1985. http://www.theses.fr/1985LYO11660.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La premiere partie est consacree a la theorie des distributions empiriques a valeurs reelles, puis vectorielles. On etudie dans la seconde partie les mouvements browniens fractionnaires d'ordre alpha a plusieurs parametres, pour lesquels une decomposition en harmoniques spheriques est explicitee. Dans la troisieme partie, on exhibe une decomposition spectrale du processus de wiener a deux parametres qui se fonde sur les invariants de ce dernier
4

Roulin, Emmannuel. "Medium-range probabilistic river streamflow predictions." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209270.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
River streamflow forecasting is traditionally based on real-time measurements of rainfall over catchments and discharge at the outlet and upstream. These data are processed in mathematical models of varying complexity and allow to obtain accurate predictions for short times. In order to extend the forecast horizon to a few days - to be able to issue early warning - it is necessary to take into account the weather forecasts. However, the latter display the property of sensitivity to initial conditions, and for appropriate risk management, forecasts should therefore be considered in probabilistic terms. Currently, ensemble predictions are made using a numerical weather prediction model with perturbed initial conditions and allow to assess uncertainty.

The research began by analyzing the meteorological predictions at the medium-range (up to 10-15 days) and their use in hydrological forecasting. Precipitation from the ensemble prediction system of the European Centre for Medium-Range Weather Forecasts (ECMWF) were used. A semi-distributed hydrological model was used to transform these precipitation forecasts into ensemble streamflow predictions. The performance of these forecasts was analyzed in probabilistic terms. A simple decision model also allowed to compare the relative economic value of hydrological ensemble predictions and some deterministic alternatives.

Numerical weather prediction models are imperfect. The ensemble forecasts are therefore affected by errors implying the presence of biases and the unreliability of probabilities derived from the ensembles. By comparing the results of these predictions to the corresponding observed data, a statistical model for the correction of forecasts, known as post-processing, has been adapted and shown to improve the performance of probabilistic forecasts of precipitation. This approach is based on retrospective forecasts made by the ECMWF for the past twenty years, providing a sufficient statistical sample.

Besides the errors related to meteorological forcing, hydrological forecasts also display errors related to initial conditions and to modeling errors (errors in the structure of the hydrological model and in the parameter values). The last stage of the research was therefore to investigate, using simple models, the impact of these different sources of error on the quality of hydrological predictions and to explore the possibility of using hydrological reforecasts for post-processing, themselves based on retrospective precipitation forecasts.

/

La prévision des débits des rivières se fait traditionnellement sur la base de mesures en temps réel des précipitations sur les bassins-versant et des débits à l'exutoire et en amont. Ces données sont traitées dans des modèles mathématiques de complexité variée et permettent d'obtenir des prévisions précises pour des temps courts. Pour prolonger l'horizon de prévision à quelques jours – afin d'être en mesure d'émettre des alertes précoces – il est nécessaire de prendre en compte les prévisions météorologiques. Cependant celles-ci présentent par nature une dynamique sensible aux erreurs sur les conditions initiales et, par conséquent, pour une gestion appropriée des risques, il faut considérer les prévisions en termes probabilistes. Actuellement, les prévisions d'ensemble sont effectuées à l'aide d'un modèle numérique de prévision du temps avec des conditions initiales perturbées et permettent d'évaluer l'incertitude.

La recherche a commencé par l'analyse des prévisions météorologiques à moyen-terme (10-15 jours) et leur utilisation pour des prévisions hydrologiques. Les précipitations issues du système de prévisions d'ensemble du Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ont été utilisées. Un modèle hydrologique semi-distribué a permis de traduire ces prévisions de précipitations en prévisions d'ensemble de débits. Les performances de ces prévisions ont été analysées en termes probabilistes. Un modèle de décision simple a également permis de comparer la valeur économique relative des prévisions hydrologiques d'ensemble et d'alternatives déterministes.

Les modèles numériques de prévision du temps sont imparfaits. Les prévisions d'ensemble sont donc entachées d'erreurs impliquant la présence de biais et un manque de fiabilité des probabilités déduites des ensembles. En comparant les résultats de ces prévisions aux données observées correspondantes, un modèle statistique pour la correction des prévisions, connue sous le nom de post-processing, a été adapté et a permis d'améliorer les performances des prévisions probabilistes des précipitations. Cette approche se base sur des prévisions rétrospectives effectuées par le Centre Européen sur les vingt dernières années, fournissant un échantillon statistique suffisant.

A côté des erreurs liées au forçage météorologique, les prévisions hydrologiques sont également entachées d'erreurs liées aux conditions initiales et aux erreurs de modélisation (structure du modèle hydrologique et valeur des paramètres). La dernière étape de la recherche a donc consisté à étudier, à l'aide de modèles simples, l'impact de ces différentes sources d'erreur sur la qualité des prévisions hydrologiques et à explorer la possibilité d'utiliser des prévisions hydrologiques rétrospectives pour le post-processing, elles-même basées sur les prévisions rétrospectives des précipitations.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

5

Horrigue, Walid. "Prévision non paramétrique dans les modèles de censure via l'estimation du quantile conditionnel en dimension infinie." Thesis, Littoral, 2012. http://www.theses.fr/2012DUNK0511.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonctionnels conditionnels en statistique non paramétrique, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, ainsi que le quantile conditionnel. Le premier travail consiste à proposer un estimateur du quantile conditionnel et de prouver sa convergence uniforme sur un sous-ensemble compact. Afin de suivre la convention dans les études biomédicales, nous considérons une suite de v.a {Ti, i ≥ 1} identiquement distribuées, de densité f, censurée à droite par une suite aléatoire {Ci, i ≥ 1} supposée aussi indépendante, identiquement distribuée et indépendante de {Ti, i ≥ 1}. Notre étude porte sur des données fortement mélangeantes et X la covariable prend des valeurs dans un espace à dimension infinie.Le second travail consiste à établir la normalité asymptotique de l’estimateur à noyau du quantile conditionnel convenablement normalisé, pour des données fortement mélangeantes, et repose sur la probabilité de petites boules. Plusieurs applications à des cas particuliers ont été traitées. Enfin, nos résultats sont appliqués à des données simulées et montrent la qualité de notre estimateur
In this thesis, we study some asymptotic properties of conditional functional parameters in nonparametric statistics setting, when the explanatory variable takes its values in infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile. We are essentially interested in the problem of forecasting in the nonparametric conditional models, when the data are functional random variables. Firstly, we propose an estimator of the conditional quantile and we establish its uniform strong convergence with rates over a compact subset. To follow the convention in biomedical studies, we consider an identically distributed sequence {Ti, i ≥ 1}, here density f, right censored by a random {Ci, i ≥ 1} also assumed independent identically distributed and independent of {Ti, i ≥ 1}. Our study focuses on dependent data and the covariate X takes values in an infinite space dimension. In a second step we establish the asymptotic normality of the kernel estimator of the conditional quantile, under α-mixing assumption and on the concentration properties on small balls of the probability measure of the functional regressors. Many applications in some particular cases have been also given
6

Candille, Guillem. "Validation des systèmes de prévisions météorologiques probabilistes." Paris 6, 2003. http://www.theses.fr/2003PA066511.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Smadi, Charline. "Modèles probabilistes de populations : branchement avec catastrophes et signature génétique de la sélection." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1035/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'étude probabiliste des réponses démographique et génétique de populations à certains événements ponctuels. Dans une première partie, nous étudions l'impact de catastrophes tuant une fraction de la population et survenant de manière répétée, sur le comportement en temps long d'une population modélisée par un processus de branchement. Dans un premier temps nous construisons une nouvelle classe de processus, les processus de branchement à états continus avec catastrophes, en les réalisant comme l'unique solution forte d'une équation différentielle stochastique. Nous déterminons ensuite les conditions d'extinction de la population. Enfin, dans les cas d'absorption presque sûre nous calculons la vitesse d'absorption asymptotique du processus. Ce dernier résultat a une application directe à la détermination du nombre de cellules infectées dans un modèle d'infection de cellules par des parasites. En effet, la quantité de parasites dans une lignée cellulaire suit dans ce modèle un processus de branchement, et les "catastrophes" surviennent lorsque la quantité de parasites est partagée entre les deux cellules filles lors des divisions cellulaires. Dans une seconde partie, nous nous intéressons à la signature génétique laissée par un balayage sélectif. Le matériel génétique d'un individu détermine (pour une grande partie) son phénotype et en particulier certains traits quantitatifs comme les taux de naissance et de mort intrinsèque, ou sa capacité d'interaction avec les autres individus. Mais son génotype seul ne détermine pas son ``adaptation'' dans le milieu dans lequel il vit : l'espérance de vie d'un humain par exemple est très dépendante de l'environnement dans lequel il vit (accès à l'eau potable, à des infrastructures médicales,...). L'approche éco-évolutive cherche à prendre en compte l'environnement en modélisant les interactions entre les individus. Lorsqu'une mutation ou une modification de l'environnement survient, des allèles peuvent envahir la population au détriment des autres allèles : c'est le phénomène de balayage sélectif. Ces événements évolutifs laissent des traces dans la diversité neutre au voisinage du locus auquel l'allèle s'est fixé. En effet ce dernier ``emmène'' avec lui des allèles qui se trouvent sur les loci physiquement liés au locus sous sélection. La seule possibilité pour un locus de ne pas être ``emmené'' est l'occurence d'une recombination génétique, qui l'associe à un autre haplotype dans la population. Nous quantifions la signature laissée par un tel balayage sélectif sur la diversité neutre. Nous nous concentrons dans un premier temps sur la variation des proportions neutres dans les loci voisins du locus sous sélection sous différents scénarios de balayages. Nous montrons que ces différents scenari évolutifs laissent des traces bien distinctes sur la diversité neutre, qui peuvent permettre de les discriminer. Dans un deuxième temps, nous nous intéressons aux généalogies jointes de deux loci neutres au voisinage du locus sous sélection. Cela nous permet en particulier de quantifier des statistiques attendues sous certains scenari de sélection, qui sont utilisées à l'heure actuelle pour détecter des événements de sélection dans l'histoire évolutive de populations à partir de données génétiques actuelles. Dans ces travaux, la population évolue suivant un processus de naissance et mort multitype avec compétition. Si un tel modèle est plus réaliste que les processus de branchement, la non-linéarité introduite par les compétitions entre individus en rend l'étude plus complexe
This thesis is devoted to the probabilistic study of demographic and genetical responses of a population to some point wise events. In a first part, we are interested in the effect of random catastrophes, which kill a fraction of the population and occur repeatedly, in populations modeled by branching processes. First we construct a new class of processes, the continuous state branching processes with catastrophes, as the unique strong solution of a stochastic differential equation. Then we describe the conditions for the population extinction. Finally, in the case of almost sure absorption, we state the asymptotical rate of absorption. This last result has a direct application to the determination of the number of infected cells in a model of cell infection by parasites. Indeed, the parasite population size in a lineage follows in this model a branching process, and catastrophes correspond to the sharing of the parasites between the two daughter cells when a division occurs. In a second part, we focus on the genetic signature of selective sweeps. The genetic material of an individual (mostly) determines its phenotype and in particular some quantitative traits, as birth and intrinsic death rates, and interactions with others individuals. But genotype is not sufficient to determine "adaptation" in a given environment: for example the life expectancy of a human being is very dependent on his environment (access to drinking water, to medical infrastructures,...). The eco-evolutive approach aims at taking into account the environment by modeling interactions between individuals. When a mutation or an environmental modification occurs, some alleles can invade the population to the detriment of other alleles: this phenomenon is called a selective sweep and leaves signatures in the neutral diversity in the vicinity of the locus where the allele fixates. Indeed, this latter "hitchhiking” alleles situated on loci linked to the selected locus. The only possibility for an allele to escape this "hitchhiking" is the occurrence of a genetical recombination, which associates it to another haplotype in the population. We quantify the signature left by such a selective sweep on the neutral diversity. We first focus on neutral proportion variation in loci partially linked with the selected locus, under different scenari of selective sweeps. We prove that these different scenari leave distinct signatures on neutral diversity, which can allow to discriminate them. Then we focus on the linked genealogies of two neutral alleles situated in the vicinity of the selected locus. In particular, we quantify some statistics under different scenari of selective sweeps, which are currently used to detect recent selective events in current population genetic data. In these works the population evolves as a multitype birth and death process with competition. If such a model is more realistic than branching processes, the non-linearity caused by competitions makes its study more complex
8

Cifonelli, Antonio. "Probabilistic exponential smoothing for explainable AI in the supply chain domain." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMIR41.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de pénétration de cette nouvelle technologie a rencontré certains freins au sein des entreprises, en particulier, les coûts de mise œuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problèmes de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes : - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve ; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite : le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entière est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au cœur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en œuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspond mieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter [...]
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow
9

Yang, Gen. "Modèles prudents en apprentissage statistique supervisé." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2263/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques
In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs
10

Atger, Frédéric. "Validation et étude de quelques propriétés de systèmes de prévision météorologique ensemblistes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30051.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés portent sur l'évaluation de prévisions météorologiques probabilistes issues de systèmes de prévision d'ensemble. Les principaux critères utilisés sont les termes de résolution et de fiabilité du score de Brier. Les prévisions issues de systèmes opérationnels sont comparées à celles obtenues par des méthodes statistiques à partir de l'intégration unique d'un modèle de prévision. On s'intéresse également à des systèmes de prévision d'ensemble consistant à regrouper les prévisions issues de quelques centres opérationnels. Les conditions requises pour une estimation réaliste de la performance de prévisions issues d'un ensemble sont examinées par ailleurs. La variabilité spatiale et temporelle de la fiabilité impose une stratification des données que ne permettent pas toujours les échantillons de taille réduite disponibles pour la vérification. Un autre problème essentiel est celui de la catégorisation des probabilités prévues, qui permet la décomposition du score de Brier
Probabilistic meteorological forecasts based on ensemble prediction systems are evaluated. The resolution and reliability components of the decomposition of the Brier score are used for quantifying the performance. Probabilistic forecasts based on operational ensembles are compared to those obtained from a single model run, through a statistical scheme. " Poorman ensembles ", consisting of a few deterministic forecasts run in different operational centres, are evaluated too. The conditions for a realistic estimation of the performance of ensemble based probabilistic forecasts are also investigated. The spatial and interannual variability of the reliability implies a strong stratification of the data, that is not always possible with available samples limited in size. Another, essential issue is the categorization of forecast probabilities, required for achieving the decomposition of the Brier score
11

Turko, Anton. "Approche comportementale des marchés financiers : options et prévisions." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX32038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne le problème de l’information et de la décision en matière de stratégies financières intermarchés où la connaissance d'informations et d'outils conditionnels est exploitée pour définir des probabilités de rentabilisation par des prévisions assises sur une logique comportementale des opérateurs. Il faut préciser que les probabilités dont nous parlons ici n’ont rien à voir avec les probabilités habituellement utilisées supposant un processus à moyenne déterminable et à l’écart type modélisable. Les opérateurs sont identifiés selon deux points de vue, acheteurs et vendeurs, ce qui conduit à définir des relations probabilistes sur les évolutions des cours qui, lorsqu'il apparaît des conjonctions ou même des disjonctions, peuvent être exploitées dans un but prévisionnel. C’est ainsi que nous proposons un nouvel instrument de construction et de l’analyse de la ‘structure’ de probabilité sur les marchés financiers. Cet instrument porte le nom de TTPI (TREMOLIERES-TURKO Probability Indicator). Il représente une sorte de vision globale sur l’évolution future des prix de marché financier sous l’échelle multi-temporelle tout en respectant la distribution de la probabilité subjective des opérateurs professionnels. L’instrument en question peut être exploité afin de détecter des changements de probabilité sur les futures tendances des prix tels que vus aujourd’hui par les opérateurs
This paper aims at giving a more comprehensive understanding of the way the prices are set up on option markets. Prediction models are derived. To facilitate their understanding we propose to split price formation process into two phases: -a first one which says how an equilibrium can be reached taking into account the way opposite operators see the future market movements and why some equilibrium can be reached or not. -second, based upon the information revealed by active operators, when enough information is given along time, we show that it is possible give probabilities of market tendencies. This will lead to a behavioral financial model build in the context of utility theory and stochastic dominance, leading to a better understanding of capital markets and option markets. . The purpose of the model will be to permit high probability forecasts in some few specific situations. For this, information coming from buyers as sellers is exploited, each operator bringing his own particular vision of future price market movements
12

Marty, Renaud. "Prévision hydrologique d'ensemble adaptée aux bassins à crue rapide : élaboration de prévisions probabilistes de précipitations à 12 et 24h : désagrégation horaire conditionnelle pour la modélisation hydrologique : application à des bassins de la région Cévennes Vivarais." Grenoble, 2010. http://www.theses.fr/2010GRENU005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bassins de la région Cévennes-Vivarais subissent des crues récurrentes, générées par des épisodes de précipitations intenses, généralement en automne. La prévision de ces crues est une préoccupation majeure, nécessitant l'anticipation maximale pour le déclenchement de l'alerte, ainsi que la meilleure estimation possible des débits futurs. Après avoir dressé un panorama des éléments nécessaires à l'élaboration de prévisions hydrologiques, avec leurs incertitudes associées, nous proposons une approche simple et modulaire, adaptée aux bassins versants à réponse rapide (temps au pic de quelques heures). Compte tenu de l'anticipation souhaitée (24-48h), les prévisions quantitatives de précipitations constituent un élément clé de la démarche. Nous décrivons et évaluons deux sources de prévisions disponibles, i. E. La prévision d'ensemble EPS du CEPMMT et la prévision élaborée par adaptation statistique (analogie) au LTHE, puis nous proposons une correction de la seconde qui améliore encore sa fiabilité. Ces prévisions sont ensuite désagrégées des pas 12 ou 24h au pas horaire, via un désagrégateur flexible, générant des scénarios qui respectent les prévisions de précipitations et la structure climatologique horaire des averses. Ces scénarios forcent un modèle hydrologique, simple et robuste, pour élaborer une prévision hydrologique ensembliste. Il ressort alors que les prévisions hydrologiques sont sensiblement améliorées lorsqu'elles intègrent une information sur la répartition infra-journalière des cumuls de précipitations prévus, issue soit des EPS à 6 ou 12h, soit de la méthode des analogues appliquée au pas de 12h, soit d'une combinaison des deux approches
Catchments of Southern France are regularly subject to quick floods, usually in autumn, generated by intense rainfall events. Thus, flood risk is a major concern, necessitating a maximal lead-time to issue early flood warning, as well as an estimation of future discharges. Firstly, the elements required for hydrological forecasts and the related uncertainties are illustrated. Then, a simple and modular approach adapted to flash flood catchments (having a time to peak of about few hours) is proposed. Considering the targeted lead-time (24-48h), quantitative precipitations forecasts are a key element of this approach. Two prediction systems are described and evaluated: the EPS ensemble forecasts provided by ECMWF and the ANALOG probabilistic forecasts issued from an analog sorting technique produced by LTHE. A statistical correction of the latter is suggested to improve its reliability. The different forecasts are thereafter disaggregated by a generator from a 12 or 24 hours time-step to hourly scenarios which respect the precipitation forecasts and are climatologically consistent. Rainfall scenarios are then used as input to a simple and robust hydrological model, to provide hydrological ensemble forecasts. These forecasts get noticeably improved when sub-daily information about rainfall amounts is provided, either from EPS at a 6 or 12h time-step, or from ANALOG applied at 12h, or from a combination of both approaches, taking into account daily rainfall amount from ANALOG and a sub-daily chronology from EPS at 6h
13

Zalachori, Ioanna. "Prévisions hydrologiques d’ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0032/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie
The last decade has seen the emergence of streamflow probabilistic forecasting as the most suitable approach to anticipate risks and provide warnings for public safety and property protection. However, beyond the gains in security, the added‐value of probabilistic information also translates into economic benefits or an optimal management of water resources for economic activities that depend on it.In streamflow forecasting, the uncertainty associated with rainfall predictions from numerical weather prediction models plays an important role. To go beyond the limits of classical predictability, meteorological services developed ensemble prediction systems, which are generated on the basis of perturbations of the initial conditions of the models and stochastic variations in their parameterization. Equally probable scenarios of the evolution of the atmosphere are proposed for forecasting horizons up to 10‐15 days.The integration of weather ensemble predictions in the hydrological forecasting chain is an interesting approach to produce probabilistic streamflow forecasts and quantify the total predictive uncertainty in hydrology. Last and final summary in the thesis
14

Zalachori, Ioanna. "Prévisions hydrologiques d’ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité." Electronic Thesis or Diss., Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie
The last decade has seen the emergence of streamflow probabilistic forecasting as the most suitable approach to anticipate risks and provide warnings for public safety and property protection. However, beyond the gains in security, the added‐value of probabilistic information also translates into economic benefits or an optimal management of water resources for economic activities that depend on it.In streamflow forecasting, the uncertainty associated with rainfall predictions from numerical weather prediction models plays an important role. To go beyond the limits of classical predictability, meteorological services developed ensemble prediction systems, which are generated on the basis of perturbations of the initial conditions of the models and stochastic variations in their parameterization. Equally probable scenarios of the evolution of the atmosphere are proposed for forecasting horizons up to 10‐15 days.The integration of weather ensemble predictions in the hydrological forecasting chain is an interesting approach to produce probabilistic streamflow forecasts and quantify the total predictive uncertainty in hydrology. Last and final summary in the thesis
15

Bellier, Joseph. "Prévisions hydrologiques probabilistes dans un cadre multivarié : quels outils pour assurer fiabilité et cohérence spatio-temporelle ?" Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire de thèse s'intéresse à la production de prévisions hydrologiques probabilistes à court/moyen terme, dans un contexte impliquant plusieurs bassins aux débits plus ou moins corrélés. Notre cas d'étude réel concerne différents affluents du Haut-Rhône français. Le travail a été mené autour de la mise en place d'une chaîne de prévision combinant des approches ensemblistes, à savoir la prévision d'ensemble météorologique et le multi-modèle hydrologique, avec des méthodes de correction statistique. Les approches ensemblistes permettent de générer de manière dynamique une incertitude propre à chaque situation, tandis que les corrections statistiques, appliquées sur les prévisions météorologiques (pré-traitement) et/ou hydrologiques (post-traitement), sont nécessaires pour garantir la fiabilité.Chaque correction statistique, réalisée dans un cadre univarié, entraine la perte de la structure de dépendance spatiale et temporelle des prévisions. Nous nous sommes donc intéressés à son étape de reconstruction, en réalisant un diagnostic des méthodes existantes, notamment le Schaake shuffle et l'ECC. Des adaptations ont été proposées afin d'apporter une réponse aux limites constatées. Dans le cadre du pré-traitement, nous avons cherché à améliorer le conditionnement de la structure de dépendance à la situation météorologique. Pour le post-traitement, notre effort s'est porté sur le respect de l'autocorrélation des débits et le maintien de la fiabilité, notamment lors des phases problématiques de récession. La vérification des prévisions obtenues (météorologiques et hydrologiques) a été menée à l'aide d'outils univariés et multivariés, en portant une attention particulière à la fiabilité, grâce notamment au concept de stratification.Nous avons enfin étudié les interactions entre les différents maillons de notre chaîne de prévision, en comparant plusieurs scénarios où certains maillons seulement étaient activés. Cette expérience a permis de fournir des indications concrètes sur les priorités à mettre en œuvre lors du déploiement ou de l'amélioration d'une chaîne opérationnelle de prévision hydrologique probabiliste
This dissertation adresses the production of short-to-medium range hydrological forecasts, in a context involving a number of basins with correlated streamflows. Our case study, based on real data, includes several tributaries of the upper Rhone river in France. Work has been conducted on implementing a forecasting chain that combines ensemble approaches, namely meteorological ensemble forecasting and hydrological multi-model, with statistical correction methods. Ensemble methods are able to dynamically generate an uncertainty that is case-specific, while statistical corrections, which are applied to meteorological (pre-processing) and/or hydrological (post-processing) forecasts, are needed to ensure forecast calibration.Each statistical correction, performed in a univariate framework, induces the loss of the spatial and temporal dependence structure of the forecasts. We were therefore interested in reconstructing such structure, first by making a diagnosic study of existing methods, notably the Schaake shuffle and ECC. Adaptations were proposed in order to address the identified caveats. For pre-processing, we aimed at improving the conditioning of the dependence structure on the meteorological situation. For post-processing, our effort focused on ensuring that streamflow forecasts respect the autocorrélation charateristics and preserve a good calibration, especially during the recession phases, which are problematic. Verification of the so-obtained (meteorological and/or hydrological) forecasts was conducted using univariate and multivariate tools, paying particular attention to the forecast calibration, thanks to the concept of stratification.Finally, we studied the interactions between the different modules of our forecasting chain, by comparing scenarios where only some of the modules were activated. This experiment allowed us to provide guidelines relative to the implementation or the upgrade of an operational probabilistic streamflow forecasting chain
16

Zalachori, Ioanna. "Prévisions hydrologiques d'ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00927676.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie.
17

Perrin, Frédéric. "Prise en compte des données expérimentales dans les modèles probabilistes pour la prévision de la durée de vie des structures." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21823.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mécanique probabiliste est une discipline qui permet de tenir compte d'incertitudes concernant un système physique et d'étudier l'impact de ces incertitudes sur la réponse du modèle qui représente le système étudié. Dans certains cas, le point faible de la chaîne de calcul est la construction du modèle probabiliste des données d'entrées, souvent par absence ou manque de données sur ces paramètres. Dans le but de mieux évaluer l'aléa de la réponse d'un modèle, l'objectif majeur de la thèse est de développer un formalime général d'identification des modèles probabilistes à partir des données expérimentales disponibles directement ou indirectement. Dans ce contexte, on propose une formulation pour évaluer le vecteur aléatoire des paramètres d'entrée d'un modèle dans deux cas de figure. En phase de conception du système étudié, on s'intéresse à la prédiction de la variabilité globale de la réponse du modèle : il s'agit de traiter un problème inverse probabiliste. En phase de suivi de maintenance d'un système mécanique particulier, on souhaite actualiser la description probabiliste réalisée en phase de conception. La première partie de la thèse s'intéresse à des méthodes originales qui permettent d'identifier l'incertitude aléatoire portée par le vecteur d'entrée d'un modèle, dans le cas d'un problème inverse probaliste. La seconde partie de la thèse précise comment des méthodes bayésiennes peuvent être utilisées dans l'optique d'actualiser des modèles représentatifs de phénomènes évolutifs. Les méthodes d'identification probabilistes et d'actualisation sont finalement appliquées et validées sur des modèles représentatifs de structures sollicitées en fatigue
18

Moulin, Laetitia. "Prévision des crues rapides avec des modèles hydrologiques globaux. Applications aux bassins opérationnels de la Loire supérieure : évaluation des modélisations, prise en compte des incertitudes sur les précipitations moyennes spatiales et utilisation de prévisions météorologiques." Phd thesis, AgroParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00368262.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail propose d'évaluer, dans le cas des bassins versants de la Loire supérieure, l'intérêt de modèles pluie-débit globaux pour la prévision opérationnelle des crues rapides.

Après une description du bassin à Bas-en-Basset, l'analyse critique des jeux de données disponibles met en évidence leur richesse, mais aussi leurs défauts. La grande variété des événements hydrométéorologiques touchant ces bassins apparaît particulièrement intéressante pour comparer des modèles hydrologiques.

Des modèles conceptuels simples sont apparus plus robustes et souvent plus performants que des modèles statistiques ou des réseaux de neurones artificiels. Des critères spécifiques à la prévision des crues mettent en évidence les informations sur l'évolution immédiate des débits apportées par la transformation de la pluie en débit, même si les erreurs de modélisation restent importantes et finalement proches d'un modèle à l'autre.

Un effort particulier a été porté sur l'estimation par krigeage des précipitations moyennes spatiales, pour lesquelles un modèle d'erreur est proposé et validé sur les données. Ces incertitudes, propagées dans les modèles pluie-débit, contribuent, selon la taille des bassins, à une part variable de l'erreur totale de modélisation.

Enfin un travail exploratoire a montré l'intérêt d'inclure des prévisions de pluies probabilisées dans une chaîne hydrométéorologique, pour augmenter les délais d'anticipation et prendre en compte les incertitudes associées. Toutefois, la disponibilité de ces prévisions impose des traitements préalables à leur utilisation.

Il ressort que des outils simples peuvent laisser envisager des améliorations dans ce domaine encore très perfectible de la prévision des crues.
19

Courbariaux, Marie. "Contributions statistiques aux prévisions hydrométéorologiques par méthodes d’ensemble." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la représentation et à la prise en compte des incertitudes dans les systèmes de prévision hydrologique probabilistes à moyen-terme. Ces incertitudes proviennent principalement de deux sources : (1) de l’imperfection des prévisions météorologiques (utilisées en intrant de ces systèmes) et (2) de l’imperfection de la représentation du processus hydrologique par le simulateur pluie-débit (SPQ) (au coeur de ces systèmes).La performance d’un système de prévision probabiliste s’évalue par la précision de ses prévisions conditionnellement à sa fiabilité. L’approche statistique que nous suivons procure une garantie de fiabilité à condition que les hypothèses qu’elle implique soient réalistes. Nous cherchons de plus à gagner en précision en incorporant des informations auxiliaires.Nous proposons, pour chacune des sources d’incertitudes, une méthode permettant cette incorporation : (1) un post-traitement des prévisions météorologiques s’appuyant sur la propriété statistique d’échangeabilité et permettant la prise en compte de plusieurs sources de prévisions, ensemblistes ou déterministes ; (2) un post-traitement hydrologique utilisant les variables d’état des SPQ par le biais d’un modèle Probit arbitrant entre deux régimes hydrologiques interprétables et permettant ainsi de représenter une incertitude à variance hétérogène.Ces deux méthodes montrent de bonnes capacités d’adaptation aux cas d’application variés fournis par EDF et Hydro-Québec, partenaires et financeurs du projet. Elles présentent de plus un gain en simplicité et en formalisme par rapport aux méthodes opérationnelles tout en montrant des performances similaires
In this thesis, we are interested in representing and taking into account uncertainties in medium term probabilistic hydrological prediction systems.These uncertainties mainly come from two sources: (1) from the imperfection of meteorological forecasts (used as inputs to these systems) and (2) from the imperfection of the representation of the hydrological process by the rainfall-runoff simulator (RRS) (at the heart of these systems).The performance of a probabilistic forecasting system is assessed by the sharpness of its predictions conditional on its reliability. The statistical approach we follow provides a guarantee of reliability if the assumptions it implies are complied with. We are also seeking to incorporate auxilary information to get sharper.We propose, for each source of uncertainty, a method enabling this incorporation: (1) a meteorological post-processor based on the statistical property of exchangeability and enabling to take into account several (ensemble or determistic) forecasts; (2) a hydrological post-processor using the RRS state variables through a Probit model arbitrating between two interpretable hydrological regimes and thus representing an uncertainty with heterogeneous variance.These two methods demonstrate adaptability on the various application cases provided by EDF and Hydro-Québec, which are partners and funders of the project. Those methods are moreover simpler and more formal than the operational methods while demonstrating similar performances
20

Descamps, Laurent. "Définition des conditions initiales des prévisions d'ensemble : liens avec l'assimilation de données." Paris 6, 2007. http://www.theses.fr/2007PA066596.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prévision d’ensemble, comme approche probabiliste de la prévision météorologique, est désormais un outil opérationnel. Un aspect non encore résolu est l’initialisation de l’ensemble. Plusieurs méthodes d’initialisation sont comparées, la méthode des Vecteurs Singuliers, la méthode des ‘Bred modes’ et trois méthodes d’assimilation d’ensemble : le Filtre de Kalman d’Ensemble, la méthode des Observations Perturbées et l’ ‘Ensemble Transform Kalman Filter’. Les comparaisons sont faites sur des données synthétiques produites par trois modèles différents: un modèle de petite dimension de Lorenz, un modèle quasi-géostrophique et le modèle opérationnel de Météo-France, ARPEGE. De façon très générale, les méthodes d’assimilation d’ensemble obtiennent les meilleures performances. La conclusion générale est que si l’on veut échantillonner correctement l’incertitude sur l’état prévu, le meilleur ensemble est celui qui échantillonne correctement l’incertitude sur l’état initial de la prévision.
21

Marty, Renaud. "PREVISION HYDROLOGIQUE D'ENSEMBLE ADAPTEE AUX BASSINS A CRUE RAPIDE. Elaboration de prévisions probabilistes de précipitations à 12 et 24 h. Désagrégation horaire conditionnelle pour la modélisation hydrologique. Application à des bassins de la région Cévennes Vivarais." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00480713.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bassins de la région Cévennes-Vivarais subissent des crues récurrentes, générées par des épisodes de précipitations intenses, généralement en automne. La prévision de ces crues est une préoccupation majeure, nécessitant l'anticipation maximale pour le déclenchement de l'alerte, ainsi que la meilleure estimation possible des débits futurs. Après avoir dressé un panorama des éléments nécessaires à l'élaboration de prévisions hydrologiques, avec leurs incertitudes associées, nous proposons une approche simple et modulaire, adaptée aux bassins versants à réponse rapide (temps au pic de quelques heures). Compte tenu de l'anticipation souhaitée (24-48h), les prévisions quantitatives de précipitations constituent un élément clé de la démarche. Nous décrivons et évaluons deux sources de prévisions disponibles, i.e. la prévision d'ensemble EPS du CEPMMT et la prévision élaborée par adaptation statistique (analogie) au LTHE, puis nous proposons une correction de la seconde qui améliore encore sa fiabilité. Ces prévisions sont ensuite désagrégées des pas 12 ou 24h au pas horaire, via un désagrégateur flexible, générant des scénarios qui respectent les prévisions de précipitations et la structure climatologique horaire des averses. Ces scénarios forcent un modèle hydrologique, simple et robuste, pour élaborer une prévision hydrologique ensembliste. Il ressort alors que les prévisions hydrologiques sont sensiblement améliorées lorsqu'elles intègrent une information sur la répartition infra-journalière des cumuls de précipitations prévus, issue soit des EPS à 6 ou 12h, soit de la méthode des analogues appliquée au pas de 12h, soit d'une combinaison des deux approches.
22

Bermolen, Maria Paola. "Modèles probabilistes et statistiques pour la conception et l'analyse des systèmes de communication." Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00005853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous abordons deux problématiques différentes : la prédiction et la classification de trafic et les mécanismes d’accès dans les réseaux MANETs. Dans la première partie de la thèse, nous abordons le problème de la prédiction et la classification du trafic. Sur la base des observations du passé et sans considérer aucun modèle en particulier, nous analysons le problème de la prédiction en ligne de la charge sur un lien. Concernant la classification du trafic, nous nous concentrons principalement sur des applications P2P, et particulièrement la télévision P2P (P2P-TV). Dans les deux cas, nous employons la technique de Support Vector Machines (SVM). Les algorithmes que nous proposons fournissent des résultats très précis. De plus, ils sont robustes et leur coût est extrêmement bas. Ces propriétés font que nos solutions soient particulièrement adaptées à des applications en temps réel. Dans la deuxième partie de la thèse, nous abordons deux problèmes différents liés aux mécanismes d’accès dans les réseaux MANETs, et en particulier, nous nous concentrons sur CSMA. Nous présentons d’abord les différents modèles existants pour CSMA et nous identifions leurs principaux points faibles. Des solutions possibles sont proposées, bases sur les outils de la géométrie aléatoire. Nous abordons ensuite le problème de QoS dans CSMA et nous proposons deux mécanismes différents permettant de garantir un débit minimum pour chaque transmission admise. Le but principal étant d'identifier le meilleur mécanisme dans un scénario donné comparé au protocole CSMA
Two different problems are addressed in this thesis : traffic prediction and classification and access mechanisms in MANETS. In the first part of the thesis, we address the problem of traffic prediction and classsification by means of advanced statistical tools. We analyze the problem of online prediction of the load on a link based only on past measurements and without assuming any particular model. Concerning traffic classification, and motivated by the widespread use of P2P systems, we focus on the identification of P2P applications, considering more precisely the case of P2P television (P2P-TV). For both cases, our framework makes use of Support Vector Machines (SVM). The algorithms we propose provide very accurate results, they are robust and their computational cost is extremely low. These properties make our solutions specially adapted to an online application. Self-organized systems such as MANETs, are of particular importance in today’s world. In the second part of the thesis, we address two different problems related to MAC mechanisms in MANETs (in particular, we concentrate on CSMA). Firstly, an analysis of the existing models for CSMA, with special emphasis on their correlation with the real protocol, is presented. Some weakness are identified and possible solutions are proposed. The use of stochastic geometry tools allows us to obtain analytical results where other techniques cannot. Secondly, we address the problem of lack of QoS in CSMA and we propose two different mechanisms that guarantee a minimum rate for each accepted transmission. The main aim of our study is to identify which of the proposed mechanisms outperforms CSMA best depending on the scenario
23

Singla, Stéphanie. "Prévisibilité des ressources en eau à l'échelle saisonnière en France." Phd thesis, Toulouse, INPT, 2012. http://oatao.univ-toulouse.fr/8928/1/singla.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bien que la prévision saisonnière soit opérationnelle depuis quelques années, son application à l’hydrologie reste encore aujourd’hui moins développée. La prévision saisonnière hydrologique peut pourtant se révéler être un outil potentiellement utile pour prévoir quelques mois à l’avance les caractéristiques hydrologiques, comme les conditions d’humidité des sols ou les débits des rivières. L’objectif de cette thèse est d’évaluer le potentiel de la chaîne hydrométéorologique Hydro-SF pour prévoir les débits et l’humidité des sols à l’échelle de la saison en France métropolitaine pour la gestion des ressources en eau, et plus particulièrement l’anticipation de sécheresses et des basses eaux. Pour cela, dans un premier temps, les différentes sources de prévisibilité du système hydrologique, ainsi que l’apport de la prévision saisonnière par rapport à une prévision climatologique, sont évaluées sur la période de 1960 à 2005 au printemps (trimestre Mars-Avril-Mai). Ces résultats, qui font l’objet d’un article publié, montrent alors qu’une part importante de la prévisibilité du système hydrologique provient : de la neige pour les bassins de montagne, de la nappe souterraine modélisée dans le bassin de la Seine, et du forçage atmosphérique pour les plaines en France. De plus, plusieurs forçages du modèle de climat ARPEGE sont comparés, et l’apport de la prévision saisonnière par rapport à la climatologie est constaté sur le Nord-Est de la France. Ensuite, compte-tenu de l’importance des forçages atmosphériques dans les résultats obtenus précédemment en zone de plaine, un travail spécifique sur la descente d’échelle des prévisions saisonnières météorologiques est réalisé. Les températures et les précipitations issues des prévisions saisonnières sont désagrégées grâce à une méthode statistique complexe : la classification par type de temps et analogues avec DSCLIM. Cette désagrégation est ainsi comparée à la méthode implémentée jusqu’à présente, basée sur une simple interpolation spatiale et des calculs d’anomalies standardisées. Ce travail sur la descente d’échelle s’effectue toujours sur la période du printemps, et permet ainsi de constater que son apport par rapport à la descente d’échelle simple auparavant utilisée reste mitigé autant pour les paramètres de surface du forçage atmosphérique que pour les variables hydrologiques. Quelques pistes d’études plus poussées sur la descente d’échelle des prévisions saisonnières sont ainsi proposées pour l’avenir. Enfin, des prévisions saisonnières hydrologiques sont réalisées pour la saison de l’été (Juin-Juillet-Août), période où ont lieu les plus fortes tensions sur les différents usages de l’eau du fait des faibles débits et des sécheresses. Ce thème est alors documenté à l’aide de quatre expériences de prévisions avec des dates d’initialisations différentes (de Février à Mai) pour évaluer la chaîne Hydro-SF sur la période de débits estivaux en France, mais aussi pour connaître la date optimale d’initialisation des prévisions et permettre la meilleure anticipation d’éventuelles sécheresses. Les résultats sont intéressants puisqu’ils montrent des scores significatifs à partir des prévisions initialisées au mois d’Avril, surtout pour les bassins en aval des montagnes dont la prévisibilité dépend de la couverture neigeuse, et le bassin de la Seine où l’influence de la nappe modélisée sur les débits des rivières augmente par rapport au printemps. Comme pour le printemps, l’apport de la prévision saisonnière pour le système hydrologique est évalué et montre une valeur ajoutée sur le Sud de la France.
24

Baïle, Rachel. "Analyse et modélisation multifractales de vitesses de vent. Application à la prévision de la ressource éolienne." Phd thesis, Université Pascal Paoli, 2010. http://tel.archives-ouvertes.fr/tel-00604139.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif principal de ce travail est l'étude des vitesses de vent, dans la couche atmosphérique de surface, dans le cadre des processus multifractals. Nous montrons que les modèles de cascades aléatoires, originellement introduits pour représenter l'intermittence spatio-temporelle en turbulence pleinement développée, se révèlent pertinents pour décrire les fluctuations du vent aux méso-échelles. Sur le plan théorique, nous présentons un nouveau formalisme multifractal qualifié d'"asymptotique mixte" qui généralise l'analyse standard et permet d'estimer les "dimensions négatives" introduites par Mandelbrot il y a une vingtaine d'années. L'application de cette approche à des données de turbulence permet de distinguer divers modèles de cascades proposés pour décrire l'intermittence de la dissipation. En étudiant les incréments temporels et spatiaux de la vitesse du vent enregistrée en différents sites de Corse et des Pays-Bas, nous montrons la nature intermittente des fluctuations du vent dans la gamme méso-échelles. Notre analyse s'appuie sur la covariance de la magnitude, outil qui s'avère plus efficace pour étudier l'intermittence que l'étude des lois de puissance classique. Nos résultats suggèrent ainsi l'existence d'un mécanisme de cascade "universel" associé au transfert d'énergie entre les mouvements synoptiques et la turbulence micro-échelles dans la couche limite de surface. Ces observations nous conduisent à la construction d'un modèle de séries temporelles pour la dynamique du vent associé à une cascade aléatoire continue. Cette représentation reproduit remarquablement les distributions empiriques des vitesses et permet une prévision de la vitesse à court terme (1-12 heures) de meilleure qualité que les modèles de référence.
25

Nguyen, Danh Ngoc. "Contribution aux approches probabilistes pour le pronostic et la maintenance des systèmes contrôlés." Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de contrôle-commande jouent un rôle important dans le développement de la civilisation et de la technologie moderne. La perte d’efficacité de l’actionneur agissant sur le système est nocive dans le sens où elle modifie le comportement du système par rapport à celui qui est désiré. Cette thèse est une contribution au pronostic de la durée de vie résiduelle (RUL) et à la maintenance des systèmes de contrôle-commande en boucle fermée avec des actionneurs soumis à dégradation. Dans une première contribution, un cadre de modélisation à l'aide d’un processus markovien déterministe par morceaux est considéré pour modéliser le comportement du système. Dans ce cadre, le comportement du système est représenté par des trajectoires déterministes qui sont intersectées par des sauts d'amplitude aléatoire se produisant à des instants aléatoires et modélisant le phénomène de dégradation discret de l'actionneur. La deuxième contribution est une méthode de pronostic de la RUL du système composée de deux étapes : estimation de la loi de probabilité de l'état du système à l'instant de pronostic par le filtre particulaire et calcul de la RUL qui nécessite l'estimation de la fiabilité du système à partir de cet instant. La troisième contribution correspond à la proposition d’une politique de maintenance à structure paramétrique permettant de prendre en compte dynamiquement les informations disponibles conjointement sur l'état et sur l'environnement courant du système et sous la contrainte de dates d'opportunité
The automatic control systems play an important role in the development of civilization and modern technology. The loss of effectiveness of the actuator acting on the system is harmful in the sense that it modifies the behavior of the system compared to that desired. This thesis is a contribution to the prognosis of the remaining useful life (RUL) and the maintenance of closed loop systems with actuators subjected to degradation. In the first contribution, a modeling framework with piecewise deterministic Markov process is considered in order to model the overall behavior of the system. In this context, the behavior of the system is represented by deterministic trajectories that are intersected by random size jumps occurring at random times and modeling the discrete degradation phenomenon of the actuator. The second contribution is a prognosis method of the system RUL which consists of two steps: the estimation of the probability distribution of the system state at the prognostic instant by particle filtering and the computation of the RUL which requires the estimation of the system reliability starting from the prognostic instant. The third contribution is the proposal of a parametric maintenance policy which dynamically take into account the available information on the state and on the current environment of the system and under the constraint of opportunity dates
26

Eressa, Muluken Regas. "Probabilistic Models for Demand Supply Prediction in The Eenergy Sector." Electronic Thesis or Diss., Université Gustave Eiffel, 2024. http://www.theses.fr/2024UEFL2005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie des modèles prédictifs probabilistes basés sur les processus gaussiens et l'apprentissage en profondeur pour la prévision de la demande d'électricité. Étant donné que les processus gaussiens sont des modèles prédictifs basés sur des noyaux, leur performance est limitée par le type, le nombre et la dimension du noyau sélectionné. Pour répondre à ces limitations, premièrement, elle propose une nouvelle technique d'approximation gaussienne qui aborde le goulot d'étranglement computationnel bayésien. Deuxièmement, elle propose un algorithme d'estimation de noyau compositionnel stochastique en utilisant l'approximation gaussienne proposée comme modèle sous-jacent. Troisièmement, elle suit une procédure itérative utilisant la validation croisée pour sélectionner les meilleures combinaisons de noyaux qui expliquent le mieux le modèle de génération des données. De plus, elle tente également de pallier la limitation de l'approche du maximum de vraisemblance, qui est généralement utilisée dans les modèles probabilistes d'apprentissage en profondeur et qui ne garantit pas nécessairement une largeur d'intervalle minimisée et une probabilité de couverture maximisée pour les points prévus. Cette thèse propose un nouvel algorithme d'entraînement pour les réseaux neuronaux. L'algorithme proposé d'estimation des bornes inférieures et supérieures basé sur la distribution englobe la largeur d'intervalle et la probabilité de couverture en tant que mesures de qualité avec des paramètres adaptatifs garantissant les performances nécessaires par rapport à d'autres techniques alternatives. Les approches suggérées renforcent le déploiement des modèles gaussiens et d'apprentissage en profondeur dans le secteur de l'énergie. Le modèle d'estimation des bornes pour un intervalle de prédiction minimisé et une probabilité de couverture maximisée peut aider les fournisseurs d'énergie potentiels à dimensionner les générateurs, ce qui se traduira par un gain de profit marginal. De plus, l'algorithme d'estimation de noyau peut simplifier l'application de l'apprentissage basé sur les noyaux pour ceux qui trouvent la sélection des noyaux vague. Pour les experts, il peut donner un aperçu préliminaire de la structure des noyaux qui pourraient potentiellement s'adapter aux données. La technique d'échantillonnage aléatoire de colonnes pourrait offrir une méthode alternative pour la construction et l'approximation rapide d'un modèle gaussien, scalable à de grandes données. De plus, l'estimation des bornes, en plus de fournir une distribution de prévision aux modèles neuronaux à estimation de point, peut également servir de point de départ pour une formation de modèle probabiliste alternative dans les réseaux neuronaux profonds
This thesis investigate probabilistic predictive models based on the Gaussian process and deep learning for electricity demand forecasting. As Gaussian processes are kernel-based predictive models, their performance is constrained by the type, number and dimension of the selected kernel. To address these limitations, first it proposes a new Gaussian approximation technique that address the Bayesian computational bottleneck. Second, it proposes a stochastic compositional kernel estimation algorithm using the proposed Gaussian approximation as the underlying model. Third, it follows an iterative procedure using cross-validation for selecting an optimal combinations of kernels that best explain the data generating model. Furthermore, it also tries to address the limitation of maximum likelihood approach which is usually employed in probabilistic deep learning models and yet fails in guaranteeing a minimized interval width and maximized coverage probability for the forecasted points. This thesis proposes a new training algorithm for neural networks. The proposed distribution based lower upper bound estimation algorithm encompasses interval width and coverage probability as quality metrics with adaptive parameters that guarantee the needed performance compared to other alternative techniques. The suggested approaches enhance the deployment of Gaussian and deep learning models in the energy sector. The bound estimation model for a minimized prediction interval and maximized coverage probability, can help potential energy suppliers in sizing generators which will result in a marginal profit gain. In addition, the kernel estimation algorithm can simplify the application of kernel-based learning to those who find kernel selection vague. To the experienced, it can give a preliminary insight into the structure of the kernels that could potentially fit the data. The randomized column sampling technique could offer an alternative method for a fast Gaussian model building and approximation that is scalable to large data. Furthermore, the bound estimation, in addition to providing a forecast distribution to a point estimate neural models, it can also serve as a good starting point to an alternative probabilistic model training in deep neural nets
27

Brochero, Darwin. "Hydroinformatics and diversity in hydrological ensemble prediction systems." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29908/29908.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous abordons la prévision probabiliste des débits à partir de deux perspectives basées sur la complémentarité de multiples modèles hydrologiques (diversité). La première exploite une méthodologie hybride basée sur l’évaluation de plusieurs modèles hydrologiques globaux et d’outils d’apprentissage automatique pour la sélection optimale des prédicteurs, alors que la seconde fait recourt à la construction d’ensembles de réseaux de neurones en forçant la diversité. Cette thèse repose sur le concept de la diversité pour développer des méthodologies différentes autour de deux problèmes pouvant être considérés comme complémentaires. La première approche a pour objet la simplification d’un système complexe de prévisions hydrologiques d’ensemble (dont l’acronyme anglais est HEPS) qui dispose de 800 scénarios quotidiens, correspondant à la combinaison d’un modèle de 50 prédictions météorologiques probabilistes et de 16 modèles hydrologiques globaux. Pour la simplification, nous avons exploré quatre techniques: la Linear Correlation Elimination, la Mutual Information, la Backward Greedy Selection et le Nondominated Sorting Genetic Algorithm II (NSGA-II). Nous avons plus particulièrement développé la notion de participation optimale des modèles hydrologiques qui nous renseigne sur le nombre de membres météorologiques représentatifs à utiliser pour chacun des modèles hydrologiques. La seconde approche consiste principalement en la sélection stratifiée des données qui sont à la base de l’élaboration d’un ensemble de réseaux de neurones qui agissent comme autant de prédicteurs. Ainsi, chacun d’entre eux est entraîné avec des entrées tirées de l’application d’une sélection de variables pour différents échantillons stratifiés. Pour cela, nous utilisons la base de données du deuxième et troisième ateliers du projet international MOdel Parameter Estimation eXperiment (MOPEX). En résumé, nous démontrons par ces deux approches que la diversité implicite est efficace dans la configuration d’un HEPS de haute performance.
In this thesis, we tackle the problem of streamflow probabilistic forecasting from two different perspectives based on multiple hydrological models collaboration (diversity). The first one favours a hybrid approach for the evaluation of multiple global hydrological models and tools of machine learning for predictors selection, while the second one constructs Artificial Neural Network (ANN) ensembles, forcing diversity within. This thesis is based on the concept of diversity for developing different methodologies around two complementary problems. The first one focused on simplifying, via members selection, a complex Hydrological Ensemble Prediction System (HEPS) that has 800 daily forecast scenarios originating from the combination of 50 meteorological precipitation members and 16 global hydrological models. We explore in depth four techniques: Linear Correlation Elimination, Mutual Information, Backward Greedy Selection, and Nondominated Sorting Genetic Algorithm II (NSGA-II). We propose the optimal hydrological model participation concept that identifies the number of meteorological representative members to propagate into each hydrological model in the simplified HEPS scheme. The second problem consists in the stratified selection of data patterns that are used for training an ANN ensemble or stack. For instance, taken from the database of the second and third MOdel Parameter Estimation eXperiment (MOPEX) workshops, we promoted an ANN prediction stack in which each predictor is trained on input spaces defined by the Input Variable Selection application on different stratified sub-samples. In summary, we demonstrated that implicit diversity in the configuration of a HEPS is efficient in the search for a HEPS of high performance.
28

Ruiz, Virginie. "Estimation et prédiction d'un système évoluant de façon non linéaire : filtrage par densités approchées." Rouen, 1993. http://www.theses.fr/1993ROUE5018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreuses situations physiques relèvent de modèle d'état, dont l'évolution est aléatoire et non linéaire. La modélisation et le filtrage doivent suivre la dynamique de ces modèles non linéaires, même en cas de ruptures. Les changements de modèles aléatoires doivent être pris en compte. Certaines situations introduisent des lois de probabilité multimodales, qui ne peuvent être traitées par les techniques de filtrage de Kalman-Bucy: les lois gaussiennes sont unimodales. De plus, quelles que soient les hypothèses gaussiennes sur les lois a priori, le caractère gaussien des lois a posteriori, est perdu en raison de l'évolution non linéaire. La methodologie originale du filtrage par densités approchées est présentée. Celle-ci introduit des lois de probabilité a priori, et a posteriori, multimodales. Un principe de maximum d'entropie sous contraintes linéaires, assure la fermeture des équations du filtre et permet l'approximation des lois de probabilité à l'aide de densités exponentielles, dont le logarithme est développé linéairement sur des fonctions à choisir astucieusement. La mise à jour utilise la méthode bayesienne de calcul des lois a posteriori. La méthode appliquée sur un modèle d'état sinusoïdal révèle les transitions entre les deux attracteurs liés au modèle (situation typique des chaos déterministes). L'étude de l'état de modèles non linéaires faisant intervenir des évolutions markoviennes conduit à dépasser la seule étude des moments d'ordre deux pour utiliser les moments d'ordre supérieur
29

Pertsinidou, Christina Elisavet. "Stochastic models for the estimation of the seismic hazard." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2342.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le premier chapitre, la notion d'évaluation des risques sismiques est définie et les caractéristiques sismotectoniques de la région d'étude sont brièvement présentés. Un examen rigoureux des modèles stochastiques, appliqués au domaine de la sismologie est fourni. Dans le chapitre 2, différents modèles semi-Markoviens sont développés pour étudier la sismicité des îles Ioniennes centrales ainsi que le Nord de la mer Egée (Grèce). Les quantités telles que le noyau semi-Markovien et les probabilités de destination sont évaluées, en considérant que les temps de séjour suivent les distributions géométrique, discrète Weibull et Pareto. Des résultats utiles sont obtenus pour l'estimation de la sismicité. Dans le troisième chapitre un nouvel algorithme de Viterbi pour les modèles semi-Markoviens cachés est construit, dont la complexité est une fonction linéaire du nombre d'observations et une fonction quadratique du nombre d'états cachés, la plus basse existante dans la littérature. Une extension de ce nouvel algorithme est développée pour le cas où une observation dépend de l'état caché correspondant, mais aussi de l'observation précédente (cas SM1-M1). Dans le chapitre 4 les modèles semi-Markoviens cachés sont appliquées pour étudier la sismicité du Nord et du Sud de la mer Égée. La séquence d'observation est constituée des magnitudes et des positions d’un tremblement de terre et le nouvel algorithme de Viterbi est mis en œuvre afin de décoder les niveaux des tensions cachés qui sont responsables pour la sismogenèse. Les phases précurseurs (variations des tensions cachées) ont été détectées en avertissant qu’un tremblement de terre pourrait se produire. Ce résultat est vérifié pour 70 sur 88 cas (le score optimal). Les temps de séjour du processus caché étaient supposés suivre les distributions Poisson, logarithmique ou binomiale négative, tandis que les niveaux de tensions cachés ont été classés en 2, 3 ou 4 états. Les modèles de Markov caché ont également été adaptés sans présenter des résultats intéressants concernant les phases précurseurs. Dans le chapitre 5 un algorithme de Viterbi généralisé pour les modèles semi-Markoviens cachés, est construit dans le sens que les transitions au même état caché sont autorisées et peuvent également être décodées. De plus, une extension de cet algorithme généralisé dans le contexte SM1-M1 est présentée. Dans le chapitre 6 nous modifions de manière convenable le modèle Cramér-Lundberg y compris des sinistres négatifs et positifs, afin de décrire l'évolution avec le temps des changements de contraintes de Coulomb (valeurs ΔCFF) calculées pour sept épicentres (M ≥ 6) du Nord de la mer Egée. Formules pour les probabilités de ruine sont définies sous une forme générale. Corollaires sont également formulés pour la distribution exponentielle et Pareto. L'objectif est de mettre en lumière la question suivante qui pose la problématique dans la Sismologie: Au cours d'une année pourquoi un tremblement de terre s’est produit dans une position précise et pas dans une autre position, aux régions sismotectoniquement homogènes ayant valeurs ΔCFF positives. Les résultats montrent que les nouvelles formules de probabilité peuvent contribuer à répondre au problème susmentionné
In the first chapter the definition of the seismic hazard assessment is provided, the seismotectonic features of the study areas are briefly presented and the already existing mathematical models applied in the field of Seismology are thoroughly reviewed. In chapter 2, different semi-Markov models are developed for studying the seismicity of the areas of the central Ionian Islands and the North Aegean Sea (Greece). Quantities such as the kernel and the destination probabilities are evaluated, considering geometric, discrete-Weibull and Pareto distributed sojourn times. Useful results are obtained for forecasting purposes. In the third chapter a new Viterbi algorithm for hidden semi-Markov models is developed, whose complexity is a linear function of the number of observations and a quadratic function of the number of hidden states, the lowest existing in the literature. Furthermore, an extension of this new algorithm is introduced for the case that an observation depends on the corresponding hidden state but also on the previous observation (SM1-M1 case). In chapter 4, different hidden semi-Markov models (HSMMs) are applied for the study of the North and South Aegean Sea. The earthquake magnitudes and locations comprise the observation sequence and the new Viterbi algorithm is implemented in order to decode the hidden stress field associated with seismogenesis. Precursory phases (variations of the hidden stress field) were detected warning for an anticipated earthquake occurrence for 70 out of 88 cases (the optimal model’s score). The sojourn times of the hidden process were assumed to follow Poisson, logarithmic or negative binomial distributions, whereas the hidden stress levels were classified into 2, 3 or 4 states. HMMs were also adapted without presenting significant results as for the precursory phases. In chapter 5 a generalized Viterbi algorithm for HSMMs is constructed in the sense that now transitions to the same hidden state are allowed and can also be decoded. Furthermore, an extension of this generalized algorithm in the SM1-M1 context is given. In chapter 6 we modify adequately the Cramér-Lundberg model considering negative and positive claims, in order to describe the evolution in time of the Coulomb failure function changes (ΔCFF values) computed at the locations of seven strong (M ≥ 6) earthquakes of the North Aegean Sea. Ruin probability formulas are derived and proved in a general form. Corollaries are also formulated for the exponential and the Pareto distribution. The aim is to shed light to the following problem posed by the seismologists: During a specific year why did an earthquake occur at a specific location and not at another location in seismotectonically homogeneous areas with positive ΔCFF values (stress enhanced areas). The results demonstrate that the new probability formulas can contribute in answering the aforementioned question
30

Fouemkeu, Norbert. "Modélisation de l'incertitude sur les trajectoires d'avions." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00710595.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons des modèles probabilistes et statistiques d'analyse de données multidimensionnelles pour la prévision de l'incertitude sur les trajectoires d'aéronefs. En supposant que pendant le vol, chaque aéronef suit sa trajectoire 3D contenue dans son plan de vol déposé, nous avons utilisé l'ensemble des caractéristiques de l'environnement des vols comme variables indépendantes pour expliquer l'heure de passage des aéronefs sur les points de leur trajectoire de vol prévue. Ces caractéristiques sont : les conditions météorologiques et atmosphériques, les paramètres courants des vols, les informations contenues dans les plans de vol déposés et la complexité de trafic. Typiquement, la variable dépendante dans cette étude est la différence entre les instants observés pendant le vol et les instants prévus dans les plans de vol pour le passage des aéronefs sur les points de leur trajectoire prévue : c'est la variable écart temporel. En utilisant une technique basée sur le partitionnement récursif d'un échantillon des données, nous avons construit quatre modèles. Le premier modèle que nous avons appelé CART classique est basé sur le principe de la méthode CART de Breiman. Ici, nous utilisons un arbre de régression pour construire une typologie des points des trajectoires des vols en fonction des caractéristiques précédentes et de prévoir les instants de passage des aéronefs sur ces points. Le second modèle appelé CART modifié est une version améliorée du modèle précédent. Ce dernier est construit en remplaçant les prévisions calculées par l'estimation de la moyenne de la variable dépendante dans les nœuds terminaux du modèle CART classique par des nouvelles prévisions données par des régressions multiples à l'intérieur de ces nœuds. Ce nouveau modèle développé en utilisant l'algorithme de sélection et d'élimination des variables explicatives (Stepwise) est parcimonieux. En effet, pour chaque nœud terminal, il permet d'expliquer le temps de vol par des variables indépendantes les plus pertinentes pour ce nœud. Le troisième modèle est fondé sur la méthode MARS, modèle de régression multiple par les splines adaptatives. Outre la continuité de l'estimateur de la variable dépendante, ce modèle permet d'évaluer les effets directs des prédicteurs et de ceux de leurs interactions sur le temps de passage des aéronefs sur les points de leur trajectoire de vol prévue. Le quatrième modèle utilise la méthode d'échantillonnage bootstrap. Il s'agit notamment des forêts aléatoires où pour chaque échantillon bootstrap de l'échantillon de données initial, un modèle d'arbre de régression est construit, et la prévision du modèle général est obtenue par une agrégation des prévisions sur l'ensemble de ces arbres. Malgré le surapprentissage observé sur ce modèle, il est robuste et constitue une solution au problème d'instabilité des arbres de régression propre à la méthode CART. Les modèles ainsi construits ont été évalués et validés en utilisant les données test. Leur application au calcul des prévisions de la charge secteur en nombre d'avions entrants a montré qu'un horizon de prévision d'environ 20 minutes pour une fenêtre de temps supérieure à 20 minutes permettait d'obtenir les prévisions avec des erreurs relatives inférieures à 10%. Parmi ces modèles, CART classique et les forêts aléatoires présentaient de meilleures performances. Ainsi, pour l'autorité régulatrice des courants de trafic aérien, ces modèles constituent un outil d'aide pour la régulation et la planification de la charge des secteurs de l'espace aérien contrôlé.
31

Huynh, Khac Tuan. "Quantification de l'apport de l'information de surveillance dans la prise de décision en maintenance." Phd thesis, Université de Technologie de Troyes, 2011. http://tel.archives-ouvertes.fr/tel-00788661.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La surveillance de l'état d'un système peut fournir des informations utiles pour la prise de décision en maintenance, mais peu d'outils de modélisation permettent de les intégrer correctement dans le processus de décision. L'originalité des travaux présentés ici réside dans la construction de nouveaux modèles probabilistes quantitatifs dont l'objectif est d'évaluer l'apport de l'information de surveillance en fonction de sa qualité et des grandeurs observées, dans un contexte d'optimisation de la maintenance. Les modèles stochastiques de défaillance et de mesure proposés intègrent à la fois les données capteurs relatives à la dégradation/défaillance du système à maintenir, les informations de surveillance sur l'impact de l'environnement opérationnel, et les caractéristiques des techniques de contrôle. En s'appuyant sur ces modèles, on propose des politiques de maintenance et on développe des modèles de coût associés pour étudier les meilleures méthodes d'exploitation de l'information de surveillance. L'ensemble des études menées montrent l'intérêt de développer des structures de décision de maintenance qui permettent d'intégrer l'information de surveillance et d'en évaluer l'impact sur les performances de la maintenance.
32

Fouemkeu, Norbert. "Modélisation de l’incertitude sur les trajectoires d’avions." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10217/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons des modèles probabilistes et statistiques d’analyse de données multidimensionnelles pour la prévision de l’incertitude sur les trajectoires d’aéronefs. En supposant que pendant le vol, chaque aéronef suit sa trajectoire 3D contenue dans son plan de vol déposé, nous avons utilisé l’ensemble des caractéristiques de l’environnement des vols comme variables indépendantes pour expliquer l’heure de passage des aéronefs sur les points de leur trajectoire de vol prévue. Ces caractéristiques sont : les conditions météorologiques et atmosphériques, les paramètres courants des vols, les informations contenues dans les plans de vol déposés et la complexité de trafic. Typiquement, la variable dépendante dans cette étude est la différence entre les instants observés pendant le vol et les instants prévus dans les plans de vol pour le passage des aéronefs sur les points de leur trajectoire prévue : c’est la variable écart temporel. En utilisant une technique basée sur le partitionnement récursif d’un échantillon des données, nous avons construit quatre modèles. Le premier modèle que nous avons appelé CART classique est basé sur le principe de la méthode CART de Breiman. Ici, nous utilisons un arbre de régression pour construire une typologie des points des trajectoires des vols en fonction des caractéristiques précédentes et de prévoir les instants de passage des aéronefs sur ces points. Le second modèle appelé CART modifié est une version améliorée du modèle précédent. Ce dernier est construit en remplaçant les prévisions calculées par l’estimation de la moyenne de la variable dépendante dans les nœuds terminaux du modèle CART classique par des nouvelles prévisions données par des régressions multiples à l’intérieur de ces nœuds. Ce nouveau modèle développé en utilisant l’algorithme de sélection et d’élimination des variables explicatives (Stepwise) est parcimonieux. En effet, pour chaque nœud terminal, il permet d’expliquer le temps de vol par des variables indépendantes les plus pertinentes pour ce nœud. Le troisième modèle est fondé sur la méthode MARS, modèle de régression multiple par les splines adaptatives. Outre la continuité de l’estimateur de la variable dépendante, ce modèle permet d’évaluer les effets directs des prédicteurs et de ceux de leurs interactions sur le temps de passage des aéronefs sur les points de leur trajectoire de vol prévue. Le quatrième modèle utilise la méthode d’échantillonnage bootstrap. Il s’agit notamment des forêts aléatoires où pour chaque échantillon bootstrap de l’échantillon de données initial, un modèle d’arbre de régression est construit, et la prévision du modèle général est obtenue par une agrégation des prévisions sur l’ensemble de ces arbres. Malgré le surapprentissage observé sur ce modèle, il est robuste et constitue une solution au problème d’instabilité des arbres de régression propre à la méthode CART. Les modèles ainsi construits ont été évalués et validés en utilisant les données test. Leur application au calcul des prévisions de la charge secteur en nombre d’avions entrants a montré qu’un horizon de prévision d’environ 20 minutes pour une fenêtre de temps supérieure à 20 minutes permettait d’obtenir les prévisions avec des erreurs relatives inférieures à 10%. Parmi ces modèles, CART classique et les forêts aléatoires présentaient de meilleures performances. Ainsi, pour l’autorité régulatrice des courants de trafic aérien, ces modèles constituent un outil d’aide pour la régulation et la planification de la charge des secteurs de l’espace aérien contrôlé
In this thesis we propose probabilistic and statistic models based on multidimensional data for forecasting uncertainty on aircraft trajectories. Assuming that during the flight, aircraft follows his 3D trajectory contained into his initial flight plan, we used all characteristics of flight environment as predictors to explain the crossing time of aircraft at given points on their planned trajectory. These characteristics are: weather and atmospheric conditions, flight current parameters, information contained into the flight plans and the air traffic complexity. Typically, in this study, the dependent variable is difference between actual time observed during flight and planned time to cross trajectory planned points: this variable is called temporal difference. We built four models using method based on partitioning recursive of the sample. The first called classical CART is based on Breiman CART method. Here, we use regression trees to build points typology of aircraft trajectories based on previous characteristics and to forecast crossing time of aircrafts on these points. The second model called amended CART is the previous model improved. This latter is built by replacing forecasting estimated by the mean of dependent variable inside the terminal nodes of classical CART by new forecasting given by multiple regression inside these nodes. This new model developed using Stepwise algorithm is parcimonious because for each terminal node it permits to explain the flight time by the most relevant predictors inside the node. The third model is built based on MARS (Multivariate adaptive regression splines) method. Besides continuity of the dependent variable estimator, this model allows to assess the direct and interaction effects of the explanatory variables on the crossing time on flight trajectory points. The fourth model uses boostrap sampling method. It’s random forests where for each bootstrap sample from the initial data, a tree regression model is built like in CART method. The general model forecasting is obtained by aggregating forecasting on the set of trees. Despite the overfitting observed on this model, it is robust and constitutes a solution against instability problem concerning regression trees obtained from CART method. The models we built have been assessed and validated using data test. Their using to compute the sector load forecasting in term to aircraft count entering the sector shown that, the forecast time horizon about 20 minutes with the interval time larger than 20 minutes, allowed to obtain forecasting with relative errors less than 10%. Among all these models, classical CART and random forests are more powerful. Hence, for regulator authority these models can be a very good help for managing the sector load of the airspace controlled
33

Dammak, Neila. "Notation financière et comportement des acteurs sur le marché financier." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST0048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est d'analyser le rôle des agences de notation sur le marché financier. Notre contribution consiste à mieux comprendre l'influence des annonces de notation sur les acteurs du marché français des actions (investisseurs et analystes financiers).La première question porte sur l'apport informatif délivré par les agences de notation et l'impact de leurs décisions. Afin de répondre à cette question, nous avons conduit une étude d'évènement à l'annonce de notation en distinguant les annonces par nature, type et catégorie.Cette recherche permet de prouver que les annonces de notation ont globalement un impact sur le marché des actions. L'impact dépend de la nature de l'annonce, des informations fournies dans les rapports de notation, des changements de note entre catégories et de ceux effectués dans la catégorie spéculative. Enfin, le niveau de la note dépend des caractéristiques financières et comptables de l'entreprise notée.La seconde question porte sur le rôle bénéfique des agences de notation sur les marchés. Afin de répondre à cette deuxième question, nous avons conduit une recherche qui consiste à analyser l'évolution de l'asymétrie d'information entre les investisseurs et de la liquidité autour des annonces de notation.Cette recherche prouve que les annonces positives (respectivement négatives) entraînent une diminution (respectivement augmentation) de l'asymétrie d'information sur le marché des actions. Les résultats prouvent également que les annonces positives et neutres, à l'inverse des annonces négatives, entraînent une réduction des fourchettes de prix et une amélioration des volumes de transactions. Ces deux effets concomitants traduisent une amélioration (respectivement détérioration) de la liquidité du marché lors des annonces positives et neutres (respectivement négatives).La troisième question porte sur l'utilité des annonces de notation pour les analystes lors de leurs prévisions. Afin de répondre à cette question, nous avons mené une recherche qui consiste à étudier l'évolution de la dispersion et de l'erreur des prévisions des analystes autour des annonces de notation.Les résultats mettent en évidence une relation inverse entre les caractéristiques des prévisions des analystes financiers et la nature de l'annonce de notation. Les annonces positives et neutres réduisent l'erreur et la dispersion des prévisions d'analystes.Ce travail de recherche permet d'attester de la réelle importance du contenu informationnel des annonces de notation pour le marché des actions et de la réelle contribution des annonces à l'amélioration de la communication financière sur le marché
The main objective of this thesis is to analyze the role of rating agencies on the financial market. Our contribution consists in a better understanding of the impact of rating announcements on the agents on the French financial market (both investors and analysts).First we focus on the information content of announcements by rating agencies and the impact of theirs decisions in the market. To answer this question, we made an event study at the rating announcements, by identifying them by nature, type and category.This research highlights the fact that the rating announcements generally have an impact on the stock market. This impact depends on the nature of the announcement, the information provided in the reports as well as score changes between categories and within the speculative category. Moreover, the rating level depends on the firm financial and accounting characteristics.Second, we intend to understand the beneficial role of rating agencies on the financial markets. To answer this question, we analyzed the evolution of the information asymmetry and stock market liquidity around rating announcements.Our results show that positive announcements (respectively negative) lead to a decrease (respectively increase) of information asymmetry. We also found that positive and neutral announcements, unlike the negative ones, lead to a reduction of bid-ask spread and to an increase of transactions volumes. Both effects reflect higher (respectively lower) stock market liquidity when the announcements are positive or neutral (respectively negative).Finally, we focus on the study of the impact of rating announcements on analysts' forecasts. For this purpose, we studied the evolution of the analysts' forecasts dispersion and errors around rating announcements.Our results indicate an inverse relationship between the characteristics of financial analysts' forecasts and the nature of the rating announcement. Indeed, positive and neutral announcements reduce the error and the dispersion of analysts' forecasts.This research shows the informative content of rating announcements on the stock market and the real contribution of the announcements by improving financial communication
34

Seltz, Andréa. "Application of deep learning to turbulent combustion modeling of real jet fuel for the numerical prediction of particulate emissions Direct mapping from LES resolved scales to filtered-flame generated manifolds using convolutional neural networks Solving the population balance equation for non-inertial particles dynamics using probability density function and neural networks: application to a sooting flame." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMIR08.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à l'urgence climatique, l’efficacité énergétique et la réduction des émissions polluantes est devenue une priorité pour l'industrie aéronautique. La précision de la modélisation des phénomènes physicochimiques joue un rôle critique dans qualité de la prédiction des émissions de suie et des gaz à effet de serre par les chambres de combustion. Dans ce contexte, des méthodes d’apprentissage profond sont utilisées pour construire des modélisations avancées des émissions de particules. Une méthode automatisée de réduction et d’optimisation de la cinétique chimique d’un combustible aéronautique réel est dans un premier temps appliquée à la simulation aux grandes échelles pour la prédiction des émissions de monoxyde de carbone. Ensuite, des réseaux de neurones sont entraînés pour simuler le comportement dynamique des suies dans la chambre de combustion et prédire la distribution de taille des particules émises
With the climate change emergency, pollutant and fuel consumption reductions are now a priority for aircraft industries. In combustion chambers, the chemistry and soot modeling are critical to correctly quantify engines soot particles and greenhouse gases emissions. This thesis aimed at improving aircraft numerical pollutant tools, in terms of computational cost and prediction level, for engines high fidelity simulations. It was achieved by enhancing chemistry reduction tools, allowing to predict CO emissions of an aircraft engines at affordable cost for the industry. Next, a novel closure model for unresolved terms in the LES filtered transport equations is developed, based on neural networks (NN), to propose a better flame modeling. Then, an original soot model for engine high fidelity simulations is presented, also based on NN. This new model is applied to a one-dimensional premixed sooted flame, and finally to an industrial combustion chamber LES with measured soot comparison
35

Tsafack-Teufack, Idriss. "Essays in functional econometrics and financial markets." Thesis, 2020. http://hdl.handle.net/1866/24837.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter.
In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.

До бібліографії