Academic literature on the topic 'Probabilités – Prévision'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Probabilités – Prévision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Probabilités – Prévision":

1

Galbraith, John W. "Les progrès dans les prévisions : météorologie et économique." Articles 81, no. 4 (April 12, 2007): 559–93. http://dx.doi.org/10.7202/014910ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé La modélisation et la prévision en météorologie et en économique présentent un certain nombre de caractéristiques communes qui laissent à penser qu’il pourrait être intéressant de comparer leurs récents progrès en matière de prévision. Nous portons notre attention sur deux aspects de la prévision. Premièrement, nous étudions les mesures de la valeur ajoutée des prévisions et l’évolution de ces mêmes mesures au cours des 20 à 30 dernières années ; deuxièmement, l’estimation et la représentation de l’incertitude de ces prévisions sont examinées. Nous considérons certaines variables quantitatives particulières comme étant représentatives de différents types de prévisions : température, croissance du PIB et volatilité des marchés financiers (variables continues) ; probabilité de précipitations et probabilité de récession (prévisions de probabilité) ; prévision de type 0/1 de précipitations ou de récession (prévisions binaires) ; tornades et krachs boursiers (événements rares). Nous effectuons un survol de l’information disponible à ce jour sur l’évolution de la qualité des prévisions et décrivons les méthodes en développement dans le but de comprendre et de représenter l’incertitude dans ces prévisions.
2

Moulin, Lætitia, Alain Abonnel, Damien Puygrenier, Audrey Valéry, and Rémy Garçon. "Prévision hydrométéorologique opérationnelle à EDF-DTG – Progrès récents et état des lieux en 2018." La Houille Blanche, no. 2 (April 2019): 44–54. http://dx.doi.org/10.1051/lhb/2019014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
À la fois pour aider au passage des crues mais aussi pour optimiser sa production hydroélectrique, EDF s'est dotée dans les années 1970 de centres hydrométéorologiques internes afin d'assurer une surveillance des débits et de réaliser des prévisions hydrométéorologiques. Depuis leur création, ces centres ont vu leur activité progresser régulièrement, intégrant au fil des ans de nouveaux enjeux, profitant des avancées méthodologiques réalisées, mettant en œuvre de nouvelles organisations tout en faisant évoluer les supports de diffusion et les informations communiquées. La chaîne de prévision opérationnelle est présentée, avec une attention particulière portée sur les traitements automatiques et sur la place de l'expertise humaine dans les prévisions probabilistes journalières de débits et les prévisions déterministes horaires. Enfin, une revue des principales pistes de préparation de l'avenir est réalisée.
3

Celie, Sabrina, Guillaume Bontron, David Ouf, and Evelyne Pont. "Apport de l'expertise dans la prévision hydro-météorologique opérationnelle." La Houille Blanche, no. 2 (April 2019): 55–62. http://dx.doi.org/10.1051/lhb/2019015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
CNR, premier producteur français d'électricité d'origine 100 % renouvelable, a aménagé et exploite le Rhône le long de sa partie française. En tant que concessionnaire, CNR est en charge de plusieurs missions telles que la navigation et la production d'électricité. Pour mener à bien ces responsabilités, CNR a développé une chaîne d'outils opérationnelle réalisant les prévisions au niveau de différents aménagements du Rhône. En complément de ces outils informatiques, des prévisionnistes hydro-météorologues analysent les sorties des modèles météorologiques et hydrologiques, expertisent les résultats et affinent les prévisions. Cette communication présente comment une expertise hydro-météorologique peut compléter et enrichir une chaîne de prévision opérationnelle et met en avant les gains que cette expertise peut apporter sur la qualité des prévisions. Actuellement, la chaîne opérationnelle repose sur des prévisions déterministes, mais CNR qui a besoin d'affiner ces prévisions et d'en évaluer la fiabilité est en train de développer une chaîne de prévisions probabilistes. Ce papier montre que l'apport de l'expertise est indéniable pour ajouter de la plus-value à des modèles déterministes, mais cela sera-t-il toujours le cas dans un contexte probabiliste ?
4

Viatgé, Julie, Lionel Berthet, Renaud Marty, François Bourgin, Olivier Piotte, Maria-Helena Ramos, and Charles Perrin. "Vers une production en temps réel d'intervalles prédictifs associés aux prévisions de crue dans Vigicrues en France." La Houille Blanche, no. 2 (April 2019): 63–71. http://dx.doi.org/10.1051/lhb/2019016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La quantification des incertitudes en modélisation est un sujet ancien, mais de nombreux développements ont été réalisés au cours des quinze dernières années dans un contexte de prévision des crues, avec l'essor notamment des approches probabilistes. En France, au sein du réseau national de prévision des crues (Vigicrues), cela a conduit à la mise au point d'une méthode automatisée de quantification des incertitudes prédictives (OTAMIN) rentrant dans la catégorie des approches de post-traitement, qui génère des intervalles de confiance sur les prévisions de débit, et d'un outil d'expertise par les prévisionnistes de ces intervalles (EAO/EXPRESSO). Cet article présente les principes méthodologiques de cette démarche, en donne une illustration d'application opérationnelle récente et discute de son utilité pour des utilisateurs institutionnels et pour le grand public. Quelques perspectives d'amélioration sont avancées.
5

Demargne, Julie, Pierre Javelle, Didier Organde, Léa Garandeau, and Bruno Janet. "Intégration des prévisions immédiates de pluie à haute-résolution pour une meilleure anticipation des crues soudaines." La Houille Blanche, no. 3-4 (October 2019): 13–21. http://dx.doi.org/10.1051/lhb/2019023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système national Vigicrues Flash, développé par le SCHAPI, fournit des avertissements aux crues soudaines sur les cours d'eau non jaugés en se basant sur la méthode AIGA-débit. Un modèle hydrologique distribué simplifié intègre, à la résolution de 1 km2, les pluies observées du réseau radar de Météo-France, pour estimer le débit en tout point des cours d'eau. Ces débits sont comparés toutes les 15 minutes aux quantiles de débit préalablement estimés à partir des chroniques de débits simulés (avec le même modèle). Le système affiche les tronçons dépassant les seuils de crue forte et crue très forte, ainsi que les communes impactées, et envoie des messages d'avertissement aux utilisateurs potentiellement concernés. Pour améliorer la pertinence et l'anticipation des avertissements, nous étudions l'intérêt d'intégrer les prévisions immédiates de pluie AROME-PI de Météo-France, sur l'échéance de 6 heures, réactualisées toutes les heures. Afin de prendre en compte les incertitudes des prévisions, les prévisions déterministes successives AROME-PI sont utilisées comme prévisions d'ensemble. Combinées avec différents jeux de paramètres hydrologiques régionalisés, ces prévisions d'ensemble définissent des avertissements probabilisés de risque de crue. L'évaluation sur 13 événements entre octobre 2015 et juin 2017 pour 750 bassins versants montre une amélioration significative en termes de détection et anticipation, en comparaison au système sans prévision de pluie, et l'intérêt des avertissements de crue de type probabiliste.
6

Loumagne, C., J. J. Vidal, C. Feliu, J. P. Torterotot, and P. A. Roche. "Procédures de décision multimodèle pour une prévision des crues en temps réel: Application au bassin supérieur de la Garonne." Revue des sciences de l'eau 8, no. 4 (April 12, 2005): 539–61. http://dx.doi.org/10.7202/705237ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article décrit une procédure de décision destinée à la prévision des crues en temps réel. La méthode proposée permet de combiner les résultats de différents modèles avec une pondération adaptée aux conditions de fonctionnement du système de prévision. Chaque modèle a lors du calage des performances qui lui sont propres ainsi qu'une sensibilité particulière aux différentes perturbations. Les résultats de ces modèfles étant corrélés, la décision optimale est par conséquence une combinaison linéaire de la décision qui peut être prise dans chaque état du système pondérée par la probabilité de se trouver dans une configuration donnée. Dans le cadre d'un système de prévision exploitant le résultat de plusieurs modèles, la procédure se décompose en deux étapes. Pendant la première étape, après analyse de l'ensemble des informations collectées on détermine les états possibles du système. La deuxième étape établit une prévision en calculant des poids optimaux accordés à chaque modèle en fonction des différentes configurations du système. Un tel système de décision nécessite une étude complète afin de décrire et modéliser toutes les perturbations et situations hydrologiques possibles. Une procédure simplifiée a donc été développée identifiant seulement deux états du système : le premier où tout fonctionne correctement et le deuxième déterminé à partir des derniers pas de temps connus. Comparativement à des méthodes de changement de modèles, cette méthode simplifiée a montré sur la Vézère de meilleurs résultats. L'intérêt de cette approche est confirmé même dans le cas où des erreurs accidentelles interviennent en temps réel. On présente les performances de cette procédure, observées depuis son implantation sur le système d'annonce de crues du bassin supérieur de la Garonne.
7

ROUSSEAU, Daniel. "Un critère général d'évaluation des prévisions déterministes et probabilistes - Application aux prévisions locales diffusées sur Internet." La Météorologie 8, no. 35 (2001): 48. http://dx.doi.org/10.4267/2042/36194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Gautrin, J. F., and B. Verdon. "Modèle de prévision et de simulation de l’aide sociale au Québec." Articles 50, no. 1 (July 9, 2009): 3–26. http://dx.doi.org/10.7202/803030ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Abstract This paper deals with a macro-simulation and forecasting model, called PASSIM, essentially markovian, of the working of the Quebec system of Public Assistance. It has to do with both the numbers of persons involved and with the expenditures. It became fully operational in the summer of 1972 albeit it still contains a number of important imperfections. The model relies on a linear programming procedure to estimate probability transition matrices. This seems to represent one of the original features of the model. The basic philosophy of the Quebec Public Assistance is simple: a modified version of a guaranteed income program. This needs test is simply used to constitute the submodel for the determination of allowances. Transition matrices are three dimensional; transition probabilities may change over time due to changes in various exogeneous variables. The model is particularly oriented to test some major changes in the law. An example of a typical simulation is presented and some gross sensitivity tests are also given.
9

Breton, Éléanor. "Les usagers professionnels des prévisions météorologiques probabilistes : des rapports à l'incertitude variés." La Météorologie, no. 123 (2023): 032. http://dx.doi.org/10.37053/lameteorologie-2023-0092.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rapport à l'incertitude des événements météorologiques et au risque qu'ils peuvent constituer pour les biens et les personnes est un enjeu devenu essentiel dans le contexte de dérèglement climatique que nous connaissons. Il est ainsi intéressant d'ouvrir la boîte noire des relations entretenues par les usagers professionnels météo-sensibles à l'égard de l'incertitude des prévisions afin d'en mesurer la complexité. Nous proposons ici de les envisager depuis la perspective sociologique, rarement empruntée sur ce terrain, comparativement aux approches psychologiques et économiques, en mettant en évidence certaines variables clés (météo-sensibilité continue ou segmentée, métier, expertise, rapport au risque, rapport au marché notamment). Les combinaisons singulières de ces variables produisent des rapports différents à l'information météorologique en fonction des usagers, utiles pour saisir leurs dispositions à s'approprier les prévisions probabilistes. The relationship between the uncertainty of meteorological events and the risk they can pose to people and property has become an essential issue in the context of climate disruption. It is therefore interesting to open the black box of the relationships maintained by weather-sensitive professional users with regard to forecast uncertainty, in order to measure their complexity. We propose here to consider these relationships from a sociological perspective, which is rarely used in this field compared to psychological and economic approaches, by highlighting certain key variables (continuous or segmented weather-sensitivity, profession, expertise, relationship to risk, relationship to the market, etc.). The singular combinations of these variables produce different relationships to meteorological information, depending on the user, which is useful for grasping their disposition to appropriate probabilistic forecasts.
10

Thirel, Guillaume. "Assimilation de débits observés pour des prévisions hydrologiques probabilistes sur la France." La Houille Blanche, no. 2 (April 2011): 87–90. http://dx.doi.org/10.1051/lhb/2011025.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Probabilités – Prévision":

1

Houdant, Benoît. "Contribution à l'amélioration de la prévision hydrométéorologique opérationnelle : pour l'usage des probabilités dans la communication entre acteurs." Phd thesis, ENGREF (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00000925.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés portent sur l'évaluation de la performance des centres opérationnels de prévision hydrométéorologique d'EDF. Une première approche consiste à calculer la valeur économique de l'information de prévision pour l'usager en charge de l'optimisation de la production hydroélectrique. La prévision probabiliste permet ensuite de formaliser une partie du savoir du prévisionniste qui n'était jusqu'alors fournie à l'usager que de manière qualitative et occasionnelle: les informations concernant les incertitudes de prévision, particulièrement en ce qui concerne la prévision d'événements rares et sévères (précipitations intenses, crues, tempêtes, etc.). Un protocole mis en place de manière semi-opérationnelle amène le prévisionniste à exprimer sa prévision courante dans la langue des probabilités: il traduit alors ses incertitudes de prévision en termes quantitatifs. Les prévisions probabilistes ainsi obtenues apportent une information plus riche et mieux adaptée aux enjeux de l'usager en charge de la sûreté des installations hydroélectriques. La prévision probabiliste permet également de révéler le comportement de l'expert confronté aux limites de son savoir. Nous analysons plusieurs défauts qui entachent le jugement du prévisionniste, tels que la "surconfiance" (sous-estimation par l'expert de ses propres incertitudes), le biais (surestimation ou sous-estimation systématique de certaines variables à prévoir), et l'aversion à l'incertitude (difficulté pour l'expert de parier sur ses propres incertitudes). Si la prévision probabiliste est encore peu usitée dans la plupart des centres de prévisions, elle s'avère pourtant applicable dans un contexte opérationnel. Nous donnons donc des préconisations pratiques pour dépasser les réticences des prévisionnistes et usagers à l'égard de ce nouveau mode de communication des incertitudes.
2

Akil, Nicolas. "Etude des incertitudes des modèles neuronaux sur la prévision hydrogéologique. Application à des bassins versants de typologies différentes." Electronic Thesis or Diss., IMT Mines Alès, 2021. http://www.theses.fr/2021EMAL0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les crues et les sécheresses sont deux des risques majeurs en France et nécessitent une attention particulière. Dans ces conditions où le changement climatique engendre des phénomènes extrêmes de plus en plus fréquents, la modélisation de ces risques est désormais un élément incontournable pour la gestion de la ressource en eau.Actuellement, les débits ou hauteurs d’eau sont principalement anticipés à partir de modèles à base physique ou conceptuelle. Bien qu’efficaces et nécessaires, la calibration et la mise en œuvre de ces modèles nécessitent la réalisation d’études longues et coûteuses.Dans ce contexte, cette thèse, soutenue par l’IMT Mines Alès et conjointement financée par la société aQuasys et l’ANRT, a pour objectif de développer des modèles issus du paradigme systémique. Ceux-ci nécessitent uniquement des connaissances a priori basiques sur la caractérisation physique du bassin étudié, et qui peuvent être calibrés à partir des seules informations d’entrées et de sorties (pluies et débits/hauteurs).Les modèles les plus utilisés dans le monde environnemental sont les réseaux neuronaux, qui sont utilisés sur ce projet. Cette thèse cherche à répondre à trois objectifs principaux :1. Élaboration d’une méthode de conception de modèle adaptée aux différentes variables (débits/hauteur des eaux de surface) et à des bassins de types très différents : bassins versants ou bassins hydrogéologiques (hauteur des eaux souterraines)2. Évaluation des incertitudes liées à ces modèles en fonction des types de bassins visés3. Réduction de ces incertitudesPlusieurs bassins sont utilisés pour répondre à ces problématiques : la nappe du bassin du Blavet en Bretagne et le bassin de la nappe de la Craie de Champagne sud et Centre
Floods and droughts are the two main risks in France and require a special attention. In these conditions, where climate change generates increasingly frequent extreme phenomena, modeling these risks is an essential element for water resource management.Currently, discharges and water heights are mainly predicted from physical or conceptual based models. Although efficient and necessary, the calibration and implementation of these models require long and costly studies.Hydrogeological forecasting models often use data from incomplete or poorly dimensioned measurement networks. Moreover, the behavior of the study basins is in most cases difficult to understand. This difficulty is thus noted to estimate the uncertainties associated with hydrogeological modeling.In this context, this thesis, supported by IMT Mines Alès and financed by the company aQuasys and ANRT, aims at developing models based on the systemic paradigm. These models require only basic knowledge on the physical characterization of the studied basin, and can be calibrated from only input and output information (rainfall and discharge/height).The most widely used models in the environmental world are neural networks, which are used in this project. This thesis seeks to address three main goals:1. Development of a model design method adapted to different variables (surface water flows/height) and to very different types of basins: watersheds or hydrogeological basins (groundwater height)2. Evaluation of the uncertainties associated with these models in relation to the types of targeted basins3. Reducing of these uncertaintiesSeveral basins are used to address these issues: the Blavet basin in Brittany and the basin of the Southern and Central Champagne Chalk groundwater table
3

Carraro, Laurent. "Questions de prédiction pour le mouvement brownien et le processus de Wiener à plusieurs paramètres." Lyon 1, 1985. http://www.theses.fr/1985LYO11660.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La premiere partie est consacree a la theorie des distributions empiriques a valeurs reelles, puis vectorielles. On etudie dans la seconde partie les mouvements browniens fractionnaires d'ordre alpha a plusieurs parametres, pour lesquels une decomposition en harmoniques spheriques est explicitee. Dans la troisieme partie, on exhibe une decomposition spectrale du processus de wiener a deux parametres qui se fonde sur les invariants de ce dernier
4

Roulin, Emmannuel. "Medium-range probabilistic river streamflow predictions." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
River streamflow forecasting is traditionally based on real-time measurements of rainfall over catchments and discharge at the outlet and upstream. These data are processed in mathematical models of varying complexity and allow to obtain accurate predictions for short times. In order to extend the forecast horizon to a few days - to be able to issue early warning - it is necessary to take into account the weather forecasts. However, the latter display the property of sensitivity to initial conditions, and for appropriate risk management, forecasts should therefore be considered in probabilistic terms. Currently, ensemble predictions are made using a numerical weather prediction model with perturbed initial conditions and allow to assess uncertainty.

The research began by analyzing the meteorological predictions at the medium-range (up to 10-15 days) and their use in hydrological forecasting. Precipitation from the ensemble prediction system of the European Centre for Medium-Range Weather Forecasts (ECMWF) were used. A semi-distributed hydrological model was used to transform these precipitation forecasts into ensemble streamflow predictions. The performance of these forecasts was analyzed in probabilistic terms. A simple decision model also allowed to compare the relative economic value of hydrological ensemble predictions and some deterministic alternatives.

Numerical weather prediction models are imperfect. The ensemble forecasts are therefore affected by errors implying the presence of biases and the unreliability of probabilities derived from the ensembles. By comparing the results of these predictions to the corresponding observed data, a statistical model for the correction of forecasts, known as post-processing, has been adapted and shown to improve the performance of probabilistic forecasts of precipitation. This approach is based on retrospective forecasts made by the ECMWF for the past twenty years, providing a sufficient statistical sample.

Besides the errors related to meteorological forcing, hydrological forecasts also display errors related to initial conditions and to modeling errors (errors in the structure of the hydrological model and in the parameter values). The last stage of the research was therefore to investigate, using simple models, the impact of these different sources of error on the quality of hydrological predictions and to explore the possibility of using hydrological reforecasts for post-processing, themselves based on retrospective precipitation forecasts.

/

La prévision des débits des rivières se fait traditionnellement sur la base de mesures en temps réel des précipitations sur les bassins-versant et des débits à l'exutoire et en amont. Ces données sont traitées dans des modèles mathématiques de complexité variée et permettent d'obtenir des prévisions précises pour des temps courts. Pour prolonger l'horizon de prévision à quelques jours – afin d'être en mesure d'émettre des alertes précoces – il est nécessaire de prendre en compte les prévisions météorologiques. Cependant celles-ci présentent par nature une dynamique sensible aux erreurs sur les conditions initiales et, par conséquent, pour une gestion appropriée des risques, il faut considérer les prévisions en termes probabilistes. Actuellement, les prévisions d'ensemble sont effectuées à l'aide d'un modèle numérique de prévision du temps avec des conditions initiales perturbées et permettent d'évaluer l'incertitude.

La recherche a commencé par l'analyse des prévisions météorologiques à moyen-terme (10-15 jours) et leur utilisation pour des prévisions hydrologiques. Les précipitations issues du système de prévisions d'ensemble du Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ont été utilisées. Un modèle hydrologique semi-distribué a permis de traduire ces prévisions de précipitations en prévisions d'ensemble de débits. Les performances de ces prévisions ont été analysées en termes probabilistes. Un modèle de décision simple a également permis de comparer la valeur économique relative des prévisions hydrologiques d'ensemble et d'alternatives déterministes.

Les modèles numériques de prévision du temps sont imparfaits. Les prévisions d'ensemble sont donc entachées d'erreurs impliquant la présence de biais et un manque de fiabilité des probabilités déduites des ensembles. En comparant les résultats de ces prévisions aux données observées correspondantes, un modèle statistique pour la correction des prévisions, connue sous le nom de post-processing, a été adapté et a permis d'améliorer les performances des prévisions probabilistes des précipitations. Cette approche se base sur des prévisions rétrospectives effectuées par le Centre Européen sur les vingt dernières années, fournissant un échantillon statistique suffisant.

A côté des erreurs liées au forçage météorologique, les prévisions hydrologiques sont également entachées d'erreurs liées aux conditions initiales et aux erreurs de modélisation (structure du modèle hydrologique et valeur des paramètres). La dernière étape de la recherche a donc consisté à étudier, à l'aide de modèles simples, l'impact de ces différentes sources d'erreur sur la qualité des prévisions hydrologiques et à explorer la possibilité d'utiliser des prévisions hydrologiques rétrospectives pour le post-processing, elles-même basées sur les prévisions rétrospectives des précipitations.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

5

Horrigue, Walid. "Prévision non paramétrique dans les modèles de censure via l'estimation du quantile conditionnel en dimension infinie." Thesis, Littoral, 2012. http://www.theses.fr/2012DUNK0511.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonctionnels conditionnels en statistique non paramétrique, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, ainsi que le quantile conditionnel. Le premier travail consiste à proposer un estimateur du quantile conditionnel et de prouver sa convergence uniforme sur un sous-ensemble compact. Afin de suivre la convention dans les études biomédicales, nous considérons une suite de v.a {Ti, i ≥ 1} identiquement distribuées, de densité f, censurée à droite par une suite aléatoire {Ci, i ≥ 1} supposée aussi indépendante, identiquement distribuée et indépendante de {Ti, i ≥ 1}. Notre étude porte sur des données fortement mélangeantes et X la covariable prend des valeurs dans un espace à dimension infinie.Le second travail consiste à établir la normalité asymptotique de l’estimateur à noyau du quantile conditionnel convenablement normalisé, pour des données fortement mélangeantes, et repose sur la probabilité de petites boules. Plusieurs applications à des cas particuliers ont été traitées. Enfin, nos résultats sont appliqués à des données simulées et montrent la qualité de notre estimateur
In this thesis, we study some asymptotic properties of conditional functional parameters in nonparametric statistics setting, when the explanatory variable takes its values in infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile. We are essentially interested in the problem of forecasting in the nonparametric conditional models, when the data are functional random variables. Firstly, we propose an estimator of the conditional quantile and we establish its uniform strong convergence with rates over a compact subset. To follow the convention in biomedical studies, we consider an identically distributed sequence {Ti, i ≥ 1}, here density f, right censored by a random {Ci, i ≥ 1} also assumed independent identically distributed and independent of {Ti, i ≥ 1}. Our study focuses on dependent data and the covariate X takes values in an infinite space dimension. In a second step we establish the asymptotic normality of the kernel estimator of the conditional quantile, under α-mixing assumption and on the concentration properties on small balls of the probability measure of the functional regressors. Many applications in some particular cases have been also given
6

Candille, Guillem. "Validation des systèmes de prévisions météorologiques probabilistes." Paris 6, 2003. http://www.theses.fr/2003PA066511.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Smadi, Charline. "Modèles probabilistes de populations : branchement avec catastrophes et signature génétique de la sélection." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'étude probabiliste des réponses démographique et génétique de populations à certains événements ponctuels. Dans une première partie, nous étudions l'impact de catastrophes tuant une fraction de la population et survenant de manière répétée, sur le comportement en temps long d'une population modélisée par un processus de branchement. Dans un premier temps nous construisons une nouvelle classe de processus, les processus de branchement à états continus avec catastrophes, en les réalisant comme l'unique solution forte d'une équation différentielle stochastique. Nous déterminons ensuite les conditions d'extinction de la population. Enfin, dans les cas d'absorption presque sûre nous calculons la vitesse d'absorption asymptotique du processus. Ce dernier résultat a une application directe à la détermination du nombre de cellules infectées dans un modèle d'infection de cellules par des parasites. En effet, la quantité de parasites dans une lignée cellulaire suit dans ce modèle un processus de branchement, et les "catastrophes" surviennent lorsque la quantité de parasites est partagée entre les deux cellules filles lors des divisions cellulaires. Dans une seconde partie, nous nous intéressons à la signature génétique laissée par un balayage sélectif. Le matériel génétique d'un individu détermine (pour une grande partie) son phénotype et en particulier certains traits quantitatifs comme les taux de naissance et de mort intrinsèque, ou sa capacité d'interaction avec les autres individus. Mais son génotype seul ne détermine pas son ``adaptation'' dans le milieu dans lequel il vit : l'espérance de vie d'un humain par exemple est très dépendante de l'environnement dans lequel il vit (accès à l'eau potable, à des infrastructures médicales,...). L'approche éco-évolutive cherche à prendre en compte l'environnement en modélisant les interactions entre les individus. Lorsqu'une mutation ou une modification de l'environnement survient, des allèles peuvent envahir la population au détriment des autres allèles : c'est le phénomène de balayage sélectif. Ces événements évolutifs laissent des traces dans la diversité neutre au voisinage du locus auquel l'allèle s'est fixé. En effet ce dernier ``emmène'' avec lui des allèles qui se trouvent sur les loci physiquement liés au locus sous sélection. La seule possibilité pour un locus de ne pas être ``emmené'' est l'occurence d'une recombination génétique, qui l'associe à un autre haplotype dans la population. Nous quantifions la signature laissée par un tel balayage sélectif sur la diversité neutre. Nous nous concentrons dans un premier temps sur la variation des proportions neutres dans les loci voisins du locus sous sélection sous différents scénarios de balayages. Nous montrons que ces différents scenari évolutifs laissent des traces bien distinctes sur la diversité neutre, qui peuvent permettre de les discriminer. Dans un deuxième temps, nous nous intéressons aux généalogies jointes de deux loci neutres au voisinage du locus sous sélection. Cela nous permet en particulier de quantifier des statistiques attendues sous certains scenari de sélection, qui sont utilisées à l'heure actuelle pour détecter des événements de sélection dans l'histoire évolutive de populations à partir de données génétiques actuelles. Dans ces travaux, la population évolue suivant un processus de naissance et mort multitype avec compétition. Si un tel modèle est plus réaliste que les processus de branchement, la non-linéarité introduite par les compétitions entre individus en rend l'étude plus complexe
This thesis is devoted to the probabilistic study of demographic and genetical responses of a population to some point wise events. In a first part, we are interested in the effect of random catastrophes, which kill a fraction of the population and occur repeatedly, in populations modeled by branching processes. First we construct a new class of processes, the continuous state branching processes with catastrophes, as the unique strong solution of a stochastic differential equation. Then we describe the conditions for the population extinction. Finally, in the case of almost sure absorption, we state the asymptotical rate of absorption. This last result has a direct application to the determination of the number of infected cells in a model of cell infection by parasites. Indeed, the parasite population size in a lineage follows in this model a branching process, and catastrophes correspond to the sharing of the parasites between the two daughter cells when a division occurs. In a second part, we focus on the genetic signature of selective sweeps. The genetic material of an individual (mostly) determines its phenotype and in particular some quantitative traits, as birth and intrinsic death rates, and interactions with others individuals. But genotype is not sufficient to determine "adaptation" in a given environment: for example the life expectancy of a human being is very dependent on his environment (access to drinking water, to medical infrastructures,...). The eco-evolutive approach aims at taking into account the environment by modeling interactions between individuals. When a mutation or an environmental modification occurs, some alleles can invade the population to the detriment of other alleles: this phenomenon is called a selective sweep and leaves signatures in the neutral diversity in the vicinity of the locus where the allele fixates. Indeed, this latter "hitchhiking” alleles situated on loci linked to the selected locus. The only possibility for an allele to escape this "hitchhiking" is the occurrence of a genetical recombination, which associates it to another haplotype in the population. We quantify the signature left by such a selective sweep on the neutral diversity. We first focus on neutral proportion variation in loci partially linked with the selected locus, under different scenari of selective sweeps. We prove that these different scenari leave distinct signatures on neutral diversity, which can allow to discriminate them. Then we focus on the linked genealogies of two neutral alleles situated in the vicinity of the selected locus. In particular, we quantify some statistics under different scenari of selective sweeps, which are currently used to detect recent selective events in current population genetic data. In these works the population evolves as a multitype birth and death process with competition. If such a model is more realistic than branching processes, the non-linearity caused by competitions makes its study more complex
8

Cifonelli, Antonio. "Probabilistic exponential smoothing for explainable AI in the supply chain domain." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMIR41.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de pénétration de cette nouvelle technologie a rencontré certains freins au sein des entreprises, en particulier, les coûts de mise œuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problèmes de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes : - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve ; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite : le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entière est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au cœur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en œuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspond mieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter [...]
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow
9

Yang, Gen. "Modèles prudents en apprentissage statistique supervisé." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2263/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques
In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs
10

Atger, Frédéric. "Validation et étude de quelques propriétés de systèmes de prévision météorologique ensemblistes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés portent sur l'évaluation de prévisions météorologiques probabilistes issues de systèmes de prévision d'ensemble. Les principaux critères utilisés sont les termes de résolution et de fiabilité du score de Brier. Les prévisions issues de systèmes opérationnels sont comparées à celles obtenues par des méthodes statistiques à partir de l'intégration unique d'un modèle de prévision. On s'intéresse également à des systèmes de prévision d'ensemble consistant à regrouper les prévisions issues de quelques centres opérationnels. Les conditions requises pour une estimation réaliste de la performance de prévisions issues d'un ensemble sont examinées par ailleurs. La variabilité spatiale et temporelle de la fiabilité impose une stratification des données que ne permettent pas toujours les échantillons de taille réduite disponibles pour la vérification. Un autre problème essentiel est celui de la catégorisation des probabilités prévues, qui permet la décomposition du score de Brier
Probabilistic meteorological forecasts based on ensemble prediction systems are evaluated. The resolution and reliability components of the decomposition of the Brier score are used for quantifying the performance. Probabilistic forecasts based on operational ensembles are compared to those obtained from a single model run, through a statistical scheme. " Poorman ensembles ", consisting of a few deterministic forecasts run in different operational centres, are evaluated too. The conditions for a realistic estimation of the performance of ensemble based probabilistic forecasts are also investigated. The spatial and interannual variability of the reliability implies a strong stratification of the data, that is not always possible with available samples limited in size. Another, essential issue is the categorization of forecast probabilities, required for achieving the decomposition of the Brier score

Books on the topic "Probabilités – Prévision":

1

Kaufman, Leonard. Finding groups in data: An introduction to cluster analysis. Hoboken, N.J: Wiley, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kaufman, Leonard. Finding groups in data: An introduction to cluster analysis. New York: Wiley, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Box, George E. P. Time series analysis: Forecasting and control. 4th ed. Hoboken, N.J: John Wiley, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Box, George E. P. Time series analysis: Forecasting and control. 3rd ed. Englewood Cliffs, N.J: Prentice Hall, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Box, George E. P. Time series analysis: Forecasting and control. 4th ed. Hoboken, N.J: John Wiley, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Taleb, Nassim. The black swan: The impact of the highly improbable. New York: Random House, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Taleb, Nassim. The black swan: The impact of the highly improbable. 2nd ed. New York: Random House Trade Paperbacks, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Taleb, Nassim. The black swan: The impact of the highly improbable. New York: Random House, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Taleb, Nassim. The black swan: The impact of the highly improbable. New York, NY: Random House, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Cohler, Bertram J., and E. James Anthony. The Invulnerable child. New York: Guilford Press, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Probabilités – Prévision":

1

BARBU, Vlad Stefan, Alex KARAGRIGORIOU, and Andreas MAKRIDES. "Processus semi-markoviens pour la prévision des tremblements de terre." In Méthodes et modèles statistiques pour la sismogenèse, 315–25. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9037.ch11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre présente les processus semi-markoviens et les systèmes multi-états, et dérive la classe de lois de probabilité fermées au minimum. L’évolution du processus et les estimateurs des paramètres correspondants sont également dérivés. La fonction de renouvellement markovien, la matrice de transition semi-markovienne ainsi que leurs estimateurs sont présentés.

To the bibliography