Dissertations / Theses on the topic 'Prévision des séries temporelles'

To see the other types of publications on this topic, follow the link: Prévision des séries temporelles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Prévision des séries temporelles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gagnon, Jean-François. "Prévision humaine de séries temporelles." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25243.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
2

Boné, Romuald. "Réseaux de neurones récurrents pour la prévision de séries temporelles." Tours, 2000. http://www.theses.fr/2000TOUR4003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux de neurones à propagation avant sont statiques, leurs sorties ne dépendant que des entrées courantes. Pour contourner cette limitation, la technique la plus répandue repose sur l'utilisation de fenêtres temporelles. Ces techniques sont insuffisantes lorsqu'une mémoire relativement profondes est nécessaire ou lorsque la profondeur de celle-ci est inconnue. Les réseaux de neurones récurrents sont capables de modéliser des dépendances temporelles de durée quelconque entre les entrées et les sorties désirées associées, en utilisant une mémoire implicite, codée grace aux connexions récurrentes et aux sorties des neurones eux-mêmes. Cependant, en pratique les réseaux récurrents sont associés à des algorithmes d'apprentissage bases sur le calcul du gradient, qui présentent des limitations dans la prise en compte des dépendances à moyen ou long terme. La résolution de ce problème peut passer par l'ajout de connexions contenant des retards. Le choix de la localisation de ces connexions et du nombre de retards nécessaires restent à la charge de l'expérimentateur. Nous proposons une nouvelle approche qui repose sur la définition de critères pour l'ajout sélectif de connexions à délais. Il en résulte des algorithmes constructifs, permettant d'adapter l'architecture du réseau au problème temporel à traiter. Le premier critère propose correspond à la variation de l'erreur lors de l'exploration restreinte des différentes alternatives d'implantation de connexions supplémentaires. L'exploration consiste en un apprentissage limite à quelques itérations. Le deuxième critère repose sur un calcul des corrélations entre des quantités générées à l'intérieur du réseau au cours de l'apprentissage, et correspond à une estimation de la variation des poids des connexions à délais candidates. Des expérimentations systématiques ont été menées sur des problèmes de référence de prévision de séries temporelles. Les résultats obtenus montrent l'intérêt de nos contributions.
3

Cherif, Aymen. "Réseaux de neurones, SVM et approches locales pour la prévision de séries temporelles." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prévision des séries temporelles est un problème qui est traité depuis de nombreuses années. On y trouve des applications dans différents domaines tels que : la finance, la médecine, le transport, etc. Dans cette thèse, on s’est intéressé aux méthodes issues de l’apprentissage artificiel : les réseaux de neurones et les SVM. On s’est également intéressé à l’intérêt des méta-méthodes pour améliorer les performances des prédicteurs, notamment l’approche locale. Dans une optique de diviser pour régner, les approches locales effectuent le clustering des données avant d’affecter les prédicteurs aux sous ensembles obtenus. Nous présentons une modification dans l’algorithme d’apprentissage des réseaux de neurones récurrents afin de les adapter à cette approche. Nous proposons également deux nouvelles techniques de clustering, la première basée sur les cartes de Kohonen et la seconde sur les arbres binaires
Time series forecasting is a widely discussed issue for many years. Researchers from various disciplines have addressed it in several application areas : finance, medical, transportation, etc. In this thesis, we focused on machine learning methods : neural networks and SVM. We have also been interested in the meta-methods to push up the predictor performances, and more specifically the local models. In a divide and conquer strategy, the local models perform a clustering over the data sets before different predictors are affected into each obtained subset. We present in this thesis a new algorithm for recurrent neural networks to use them as local predictors. We also propose two novel clustering techniques suitable for local models. The first is based on Kohonen maps, and the second is based on binary trees
4

Huard, Malo. "Apprentissage et prévision séquentiels : bornes uniformes pour le regret linéaire et séries temporelles hiérarchiques." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente quelques contributions théoriques et pratiques à la prévision des suites arbitraires. Dans ce domaine, la prévision se déroule séquentiellement en même temps que l'apprentissage. À chaque étape, on ajuste le modèle sur les données passées afin de prévoir la prochaine observation. Le but de ce modèle est de faire les meilleures prévisions possibles, c'est-à-dire celles qui minimisent leurs écarts avec les observations. Les méthodes d'apprentissage séquentielles sont évaluées par leur regret, qui mesure à quelle point une stratégie est proche de la meilleure possible, qui est seulement connue une fois l'ensemble des données disponible. Un des résultats de cette thèse est d'étendre l'ensemble des stratégies auxquels on se compare lorsque l'on fait de la régression linéaire séquentielle. Nous avons adapté un algorithme existant en améliorant ses garanties théoriques pour lui permettre de se comparer à n'importe quelle combinaison linéaire constante sans restriction sur la norme de ses poids de mélange. Un deuxième travail a consisté à étendre les méthodes de prévisions séquentielles lorsque les données à prévoir sont hiérarchiquement organisées. Nous avons testé ces méthodes hiérarchiques sur deux applications pratiques, la prévision de consommation électrique des ménages et la prévision de ventes pour le e-commerce
This work presents some theoretical and practical contributions to the prediction of arbitrary sequences. In this domain, forecasting takes place sequentially at the same time as learning. At each step, the model is fitted on the past data in order to predict the next observation. The goal of this model is to make the best possible predictions, i.e. those that minimize their deviations from the observations, which are made a posteriori. Sequential learning methods are evaluated by their regret, which measures how close strategies are to the best possible, known only after all the data is available. In this thesis, we extend the set of weights vectors a method is compared to when doing sequential linear regression. We have adapted an existing algorithm by improving its theoretical guarantees allowing it to be compared to any constant linear combination without restriction on the norm of its mixing weights. A second work consisted in extending sequential forecasting methods when forcasted data is organized in a hierarchy. We tested these hierarchical methods on two practical applications, household power consumption prediction and demand forecasts in e-commerce
5

Lefieux, Vincent. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles : cas de la consommation d’électricité." Phd thesis, Rennes 2, 2007. https://theses.hal.science/tel-00179866/fr/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une prévision correcte de la consommation d’électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d’Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d’un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA. Dans l’idée d’obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d’un prédicteur nonparamétrique résiste mal à un grand nombre de variables explicatives, ce qu’on appelle communément le fléau de la dimension. On a proposé récemment des méthodes semi-paramétriques d’estimation d’une régression qui améliorent l’approche non-paramétrique pure. L’une d’elles, basée sur la notion de ”directions révélatrices” appellée MAVE (Moving Average -conditional- Variance Estimation), peut s’appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d’une série temporelle autorégressive. Nous adaptons ensuite cette méthode, d’un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l’aspect autorégressif du problème, et l’introduction de variables exogènes. La procédure d’estimation proposée se révèle efficace en pratique
Réseau de Transport d’Electricité (RTE), in charge of operating the French electric transportation grid, needs an accurate forecast of the power consumption in order to operate it correctly. The forecasts used everyday result from a model combining a nonlinear parametric regression and a SARIMA model. In order to obtain an adaptive forecasting model, nonparametric forecasting methods have already been tested without real success. In particular, it is known that a nonparametric predictor behaves badly with a great number of explanatory variables, what is commonly called the curse of dimensionality. Recently, semiparametric methods which improve the pure nonparametric approach have been proposed to estimate a regression function. Based on the concept of ”dimension reduction”, one those methods (called MAVE : Moving Average -conditional- Variance Estimate) can apply to time series. We study empirically its effectiveness to predict the future values of an autoregressive time series. We then adapt this method, from a practical point of view, to forecast power consumption. We propose a partially linear semiparametric model, based on the MAVE method, which allows to take into account simultaneously the autoregressive aspect of the problem and the exogenous variables. The proposed estimation procedure is practicaly efficient
6

Lefieux, Vincent. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles. Cas de la consommation d'électricité." Phd thesis, Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00179866.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une prévision correcte de la consommation d'électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d'Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d'un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA.Dans l'idée d'obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d'un prédicteur non-paramétrique résiste mal à un grand nombre de variables explicatives, ce qu'on appelle communément le fléau de la dimension.On a proposé récemment des méthodes semi-paramétriques d'estimation d'une régression qui améliorent l'approche non-paramétrique pure. L'une d'elles, basée sur la notion de ''directions révélatrices'' appellée MAVE (Moving Average -conditional- Variance Estimation), peut s'appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d'une série temporelle autorégressive.Nous adaptons ensuite cette méthode, d'un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l'aspect autorégressif du problème, et l'introduction de variables exogènes. La procédure d'estimation proposée se révèle efficace en pratique.
7

Tatsa, Sylvestre. "Modélisation et prévision de la consommation horaire d'électricité au Québec : comparaison de méthodes de séries temporelles." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30329/30329.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail explore la dynamique de consommation résidentielle d’électricité au Québec à l’aide de données horaires fournies par Hydro-Québec pour la période de janvier 2006 à décembre 2010. Nous considérons trois modèles autorégressifs standards en analyse des séries temporelles : le lissage exponentiel Holt-Winters, le modèle ARIMA saisonnier (SARIMA) et le modèle ARIMA saisonnier avec variables exogènes (SARIMAX). Pour ce dernier modèle, nous nous concentrons sur l’effet des variables climatiques (la température, l’humidité relative et le point de rosé et la nébulosité). Les facteurs climatiques ont un impact important sur la consommation d’électricité à très court terme. La performance prédictive intra et hors échantillon de chaque modèle est évaluée avec différents indicateurs d’ajustement. Trois horizons temporels hors-échantillon sont testés : 24 heures (un jour), 72 heures (trois jours) et 168 heures (1 semaine). Le modèle SARIMA offre la meilleure performance prédictive hors-échantillon sur 24 heures. Le modèle SARIMAX se révèle le plus performant hors-échantillon sur les horizons temporels de 72 et 168 heures. Des recherches supplémentaires seraient nécessaires pour obtenir des modèles de prévision pleinement satisfaisant du point de vue méthodologique. Mots clés : modèles de séries temporelles, électricité, lissage exponentiel, SARIMA, SARIMAX.
This work explores the dynamics of residential electricity consumption in Quebec using hourly data from January 2006 to December 2010. We estimate three standard autoregressive models in time series analysis: the Holt-Winters exponential smoothing, the seasonal ARIMA model (SARIMA) and the seasonal ARIMA model with exogenous variables (SARIMAX). For the latter model, we focus on the effect of climate variables (temperature, relative humidity and dew point and cloud cover). Climatic factors have a significant impact on the short-term electricity consumption. The intra-sample and out-of-sample predictive performance of each model is evaluated with various adjustment indicators. Three out-of-sample time horizons are tested: 24 hours (one day), 72 hours (three days) and 168 hours (1 week). The SARIMA model provides the best out-of-sample predictive performance of 24 hours. The SARIMAX model reveals the most powerful out-of-sample time horizons of 72 and 168 hours. Additional research is needed to obtain predictive models fully satisfactory from a methodological point of view. Keywords: modeling, electricity, Holt-Winters, SARIMA, SARIMAX.
8

Vroman, Philippe. "Prédiction des séries temporelles en milieu incertain : application à la prévision de ventes dans la distribution textile." Lille 1, 2000. http://www.theses.fr/2000LIL10207.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face a une mondialisation exacerbee, les acteurs de la filiere textile-habillement reorganisent leurs reseaux de production et distribution. Le mode de gestion adopte necessite un systeme de prevision des ventes adapte a l'environnement incertain et complexe du marche textile. L'incertitude est caracterisee par de nombreuses variables explicatives qui ne sont ni controlees, ni parfaitement identifiees. Le distributeur a d'abord besoin de connaitre le volume global des ventes une saison a l'avance afin d'organiser sa production (moyen terme). Il doit ensuite reajuster ses previsions tout au long de la saison des ventes (court terme). Il existe de nombreux modeles de prevision : heuristiques ou stochastiques, non lineaires, adaptatifs, explicatifs ou extrapolatifs, comme les modeles de holt-winters, box-jenkins, regression dynamique ou plus recemment les modeles connexionnistes. Deux inconvenients majeurs sont notes : la specificite des contextes qui requierent une combinaison de plusieurs methodes, et la difficulte d'apprentissage des modeles avec des historiques courts en environnement incertain. Parallelement, de nouvelles exigences apparaissent, comme la facilite d'ajustement, d'interpretation et d'exploitation des modeles. Notre objectif consiste alors a elaborer des modeles specifiques utilisant des outils issus du soft computing. Nous proposons trois modeles adaptes aux besoins du distributeur. Le premier utilise un systeme d'inference flou pour estimer les parametres d'un modele de prevision, en fonction d'indicateurs d'observation. Le second est une extension des modeles connexionnistes autoregressifs, bien connus en prevision. Le troisieme combine un modele saisonnier et un modele base sur le soft computing. Il permet notamment une automatisation de l'approche heuristique des experts. La performance des modeles est analysee a l'aide de comparatifs. Enfin, nous proposons une critique et des perspectives de developpement des modeles.
9

Melzi, Fateh. "Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1123/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations
Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
10

Zuo, Jingwei. "Apprentissage de représentations et prédiction pour des séries-temporelles inter-dépendantes." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les séries temporelles sont un type de données endémique dans de nombreux domaines d'applications, telles que l'analyse financière, le diagnostic médical, la surveillance de l'environnement ou encore l'astronomie. Du fait de leur structure complexe, les séries temporelles amènent à de nouveaux défis dans le traitement et l'extraction de connaissances de ces données. La représentation des séries temporelles joue un rôle déterminant dans les méthodes d'apprentissage et les tâches de fouille de données. Cependant, peu de méthodes tiennent compte des interdépendances entre séries temporelles différentes. De plus, la fouille de séries temporelles nécessite de considérer non seulement les caractéristiques des séries temporelles en termes de complexité des données, mais également les contextes particuliers des applications et la tâche de fouille de données à effectuer. Cela nous permet de construire des représentations spécifiques à la tâche.Dans cette thèse, nous étudions différentes représentations de séries temporelles capables de s'adapter à diverses tâches de fouille de séries temporelles, tout en capturant les relations entre elles. Nous nous concentrons spécifiquement sur la modélisation des interdépendances entre séries temporelles lors de la construction des représentations, qui peuvent être la dépendance temporelle au sein de chaque source de données ou la dépendance inter-variable entre des sources de données différentes. En conséquence, nous étudions les séries temporelles collectées dans diverses applications sous différentes formes. Tout d'abord, pour tenir compte de la dépendance temporelle entre les observations, nous apprenons la représentation de série temporelle dans un contexte de flux dynamique, où la série temporelle est générée en continu à partir de la source de données. Quant à la dépendance inter-variable, nous étudions les séries temporelles multivariées (MTS) avec des données collectées à partir de plusieurs sources. Enfin, nous étudions le MTS dans le contexte de la ville intelligente, où chaque source de données est associée à une localisation spatiale. Par conséquent, le MTS devient une série temporelle géo-localisée (GTS), pour laquelle la modélisation de la dépendance inter-variable requière la prise en compte de l'information spatiale sous-jacente. De ce fait, pour chaque type de séries temporelles collectées dans des contextes différents, nous proposons une méthode de représentation adaptée aux dépendances temporelles et/ou inter-variables.Outre la complexité des données provenant des interdépendances des séries temporelles, nous étudions diverses tâches d'apprentissage automatique sur des séries temporelles afin de valider les représentations apprises. Les tâches d'apprentissage étudiées dans cette thèse consistent en la classification de séries temporelles, l'apprentissage semi-supervisé de séries temporelles et la prévision de séries temporelles. Nous montrons comment les représentations apprises sont exploitées dans ces différentes tâches et pour des applications distinctes.Plus précisément, nos principales contributions sont les suivantes. En premier lieu, nous proposons un modèle d'apprentissage dynamique de la représentation des séries temporelles dans le contexte du flux de données, où nous considérons à la fois les caractéristiques des séries temporelles et les défis des flux de données. Nous affirmons et démontrons que le motif de Shapelet, basé sur la forme, est la meilleure représentation dans le contexte dynamique. Par ailleurs, nous proposons un modèle semi-supervisé pour l'apprentissage de représentation dans les MTS. Ce modèle considère la dépendance inter-variable dans l'hypothèse réaliste où les annotations de données sont limitées. Enfin, nous proposons un modèle d'apprentissage de représentation de GTS dans le contexte de la ville intelligente. Nous étudions spécifiquement la tâche de prévision du trafic routier avec un focus sur le traitement intégré des valeurs manquantes
Time series is a common data type that has been applied to enormous real-life applications, such as financial analysis, medical diagnosis, environmental monitoring, astronomical discovery, etc. Due to its complex structure, time series raises several challenges in their data processing and mining. The representation of time series plays a key role in data mining tasks and machine learning algorithms for time series. Yet, a few methods consider the interrelation that may exist between different time series when building the representation. Moreover, the time series mining requires considering not only the time series' characteristics in terms of data complexity but also the concrete application scenarios where the data mining task is performed to build task-specific representations.In this thesis, we will study different time series representation approaches that can be used in various time series mining tasks, while capturing the relationships among them. We focus specifically on modeling the interrelations between different time series when building the representations, which can be the temporal relationship within each data source or the inter-variable relationship between various data sources. Accordingly, we study the time series collected from various application contexts under different forms. First, considering the temporal relationship between the observations, we learn the time series in a dynamic streaming context, i.e., time series stream, for which the time series data is continuously generated from the data source. Second, for the inter-variable relationship, we study the multivariate time series (MTS) with data collected from multiple data sources. Finally, we study the MTS in the Smart City context, when each data source is given a spatial position. The MTS then becomes a geo-located time series (GTS), for which the inter-variable relationship requires more modeling efforts with the external spatial information. Therefore, for each type of time series data collected from distinct contexts, the interrelations between the time series observations are emphasized differently, on the temporal or (and) variable axis.Apart from the data complexity from the interrelations, we study various machine learning tasks on time series in order to validate the learned representations. The high-level learning tasks studied in this thesis consist of time series classification, semi-supervised time series learning, and time series forecasting. We show how the learned representations connect with different time series learning tasks under distinct application contexts. More importantly, we conduct the interdisciplinary study on time series by leveraging real-life challenges in machine learning tasks, which allows for improving the learning model's performance and applying more complex time series scenarios.Concretely, for these time series learning tasks, our main research contributions are the following: (i) we propose a dynamic time series representation learning model in the streaming context, which considers both the characteristics of time series and the challenges in data streams. We claim and demonstrate that the Shapelet, a shape-based time series feature, is the best representation in such a dynamic context; (ii) we propose a semi-supervised model for representation learning in multivariate time series (MTS). The inter-variable relationship over multiple data sources is modeled in a real-life context, where the data annotations are limited; (iii) we design a geo-located time series (GTS) representation learning model for Smart City applications. We study specifically the traffic forecasting task, with a focus on the missing-value treatment within the forecasting algorithm
11

Gaillard, Pierre. "Contributions à l’agrégation séquentielle robuste d’experts : Travaux sur l’erreur d’approximation et la prévision en loi. Applications à la prévision pour les marchés de l’énergie." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112133/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à prévoir séquentiellement une suite arbitraire d'observations. À chaque instant, des experts nous proposent des prévisions de la prochaine observation. Nous formons alors notre prévision en mélangeant celles des experts. C'est le cadre de l'agrégation séquentielle d'experts. L'objectif est d'assurer un faible regret cumulé. En d'autres mots, nous souhaitons que notre perte cumulée ne dépasse pas trop celle du meilleur expert sur le long terme. Nous cherchons des garanties très robustes~: aucune hypothèse stochastique sur la suite d'observations à prévoir n'est faite. Celle-ci est supposée arbitraire et nous souhaitons des garanties qui soient vérifiées quoi qu'il arrive. Un premier objectif de ce travail est l'amélioration de la performance des prévisions. Plusieurs possibilités sont proposées. Un exemple est la création d'algorithmes adaptatifs qui cherchent à s'adapter automatiquement à la difficulté de la suite à prévoir. Un autre repose sur la création de nouveaux experts à inclure au mélange pour apporter de la diversité dans l'ensemble d'experts. Un deuxième objectif de la thèse est d'assortir les prévisions d'une mesure d'incertitude, voire de prévoir des lois. Les applications pratiques sont nombreuses. En effet, très peu d'hypothèses sont faites sur les données. Le côté séquentiel permet entre autres de traiter de grands ensembles de données. Nous considérons dans cette thèse divers jeux de données du monde de l'énergie (consommation électrique, prix de l'électricité,...) pour montrer l'universalité de l'approche
We are interested in online forecasting of an arbitrary sequence of observations. At each time step, some experts provide predictions of the next observation. Then, we form our prediction by combining the expert forecasts. This is the setting of online robust aggregation of experts. The goal is to ensure a small cumulative regret. In other words, we want that our cumulative loss does not exceed too much the one of the best expert. We are looking for worst-case guarantees: no stochastic assumption on the data to be predicted is made. The sequence of observations is arbitrary. A first objective of this work is to improve the prediction accuracy. We investigate several possibilities. An example is to design fully automatic procedures that can exploit simplicity of the data whenever it is present. Another example relies on working on the expert set so as to improve its diversity. A second objective of this work is to produce probabilistic predictions. We are interested in coupling the point prediction with a measure of uncertainty (i.e., interval forecasts,…). The real world applications of the above setting are multiple. Indeed, very few assumptions are made on the data. Besides, online learning that deals with data sequentially is crucial to process big data sets in real time. In this thesis, we carry out for EDF several empirical studies of energy data sets and we achieve good forecasting performance
12

Agoua, Xwégnon. "Développement de méthodes spatio-temporelles pour la prévision à court terme de la production photovoltaïque." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution du contexte énergétique mondial et la lutte contre le changement climatique ont conduit à l’accroissement des capacités de production d’énergie renouvelable. Les énergies renouvelables sont caractérisées par une forte variabilité due à leur dépendance aux conditions météorologiques. La maîtrise de cette variabilité constitue un enjeu important pour les opérateurs du système électrique, mais aussi pour l’atteinte des objectifs européens de réduction des émissions de gaz à effet de serre, d’amélioration de l’efficacité énergétique et de l’augmentation de la part des énergies renouvelables. Dans le cas du photovoltaïque(PV), la maîtrise de la variabilité de la production passe par la mise en place d’outils qui permettent de prévoir la production future des centrales. Ces prévisions contribuent entre autres à l’augmentation du niveau de pénétration du PV,à l’intégration optimale dans le réseau électrique, à l’amélioration de la gestion des centrales PV et à la participation aux marchés de l’électricité. L’objectif de cette thèse est de contribuer à l’amélioration de la prédictibilité à court-terme (moins de 6 heures) de la production PV. Dans un premier temps, nous analysons la variabilité spatio-temporelle de la production PV et proposons une méthode de réduction de la non-stationnarité des séries de production. Nous proposons ensuite un modèle spatio-temporel de prévision déterministe qui exploite les corrélations spatio-temporelles entre les centrales réparties sur une région. Les centrales sont utilisées comme un réseau de capteurs qui permettent d’anticiper les sources de variabilité. Nous proposons aussi une méthode automatique de sélection des variables qui permet de résoudre les problèmes de dimension et de parcimonie du modèle spatio-temporel. Un modèle spatio-temporel probabiliste a aussi été développé aux fins de produire des prévisions performantes non seulement du niveau moyen de la production future mais de toute sa distribution. Enfin nous proposons, un modèle qui exploite les observations d’images satellites pour améliorer la prévision court-terme de la production et une comparaison de l’apport de différentes sources de données sur les performances de prévision
The evolution of the global energy context and the challenges of climate change have led to anincrease in the production capacity of renewable energy. Renewable energies are characterized byhigh variability due to their dependence on meteorological conditions. Controlling this variabilityis an important challenge for the operators of the electricity systems, but also for achieving the Europeanobjectives of reducing greenhouse gas emissions, improving energy efficiency and increasing the share of renewable energies in EU energy consumption. In the case of photovoltaics (PV), the control of the variability of the production requires to predict with minimum errors the future production of the power stations. These forecasts contribute to increasing the level of PV penetration and optimal integration in the power grid, improving PV plant management and participating in electricity markets. The objective of this thesis is to contribute to the improvement of the short-term predictability (less than 6 hours) of PV production. First, we analyze the spatio-temporal variability of PV production and propose a method to reduce the nonstationarity of the production series. We then propose a deterministic prediction model that exploits the spatio-temporal correlations between the power plants of a spatial grid. The power stationsare used as a network of sensors to anticipate sources of variability. We also propose an automaticmethod for selecting variables to solve the dimensionality and sparsity problems of the space-time model. A probabilistic spatio-temporal model has also been developed to produce efficient forecasts not only of the average level of future production but of its entire distribution. Finally, we propose a model that exploits observations of satellite images to improve short-term forecasting of PV production
13

Sicard, Pierre. "Caractérisation des retombées atmosphériques en France en zone rurale sous forme de précipitations, gaz et aérosols : analyse des tendances spatio-temporelles et des séries chronologiques." Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Sicard.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés portent sur les retombées atmosphériques en zone rurale et s' inscrivent dans le cadre du programme français de Mesure des Retombées Atmosphériques (MERA). Les polluants mesurés dans les stations du dispositif sont en rapport avec les problèmes des pluies acides et de la pollution photochimique. Deux tests statistiques pour détecter et estimer les tendances au sein de séries chronologiques ont été utilisés. La procédure est basée sur le test non paramétrique de Mann-Kendall pour déterminer la tendance et sur la méthode de Sen pour en estimer la magnitude. Ces tests ont été appliqués aux 5. 000. 000 de données MERA, annuelles, saisonnières et mensuelles sur la période 1990-2003, puis, aux émissions nationales et européennes des principaux polluants précurseurs. Prochamement des prévisions subjectives par extrapolations linéaires pourront être effectuées. L'acidité moyenne des pluies, après avoir baissée au début des années 90, augmente légèrement depuis 1996 alors que les émissions de composés acidifiants diminuent. Cette observation semble être corrélée à la diminution en cations basiques, NH4+ et aux aérosols acides. Les concentrations en composés soufrés (gaz et aérosols) ont fortement diminué depuis le début des années 90 associées aux fortes réductions d'émission. Pour l'O3, une augmentation des teneurs est observée entre 1995 et 2003, associée à une diminution des émissions de précurseurs. Plusieurs facteurs peuvent expliquer cette augmentation. Les changements des émissions de précurseurs, les échanges strato-troposphériques, le transport intercontinental, les changements climatiques, le rapport COV/NOx, les émissions des composés bio-géogéniques.
14

Despagne, Wilfried. "Construction, analyse et implémentation d'un modèle de prévision : déploiement sous forme d'un système de prévision chez un opérateur européen du transport et de la logistique." Phd thesis, Université Européenne de Bretagne, 2010. http://tel.archives-ouvertes.fr/tel-00487327.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse montre que pour innover, le secteur privé peut faire appel à la connaissance académique. En effet, un partenariat entre un établissement universitaire et un professionnel du transport de marchandises a permis de répondre à des problématiques industrielles par l'application de mathématiques de pointe. Cette thèse porte sur la conception, l'implémentation et la mise en production d'un système de prévision d'activité pour l'optimisation de la planification des ressources. Elle propose également un modèle mathématique pour modéliser les flux de marchandises qui transitent sur un quai de messagerie. Pour comprendre la problématique posée par l'industriel, le contexte industriel dans lequel s'insèrent les travaux de recherche est posé. Il s'en suit une réflexion sur la manière d'aborder le problème de mise en place d'un système de prévision en entreprise. Une synthèse de l'existant en matière de production d'information prévisionnelle est menée dans l'entreprise. En s'appuyant sur les informations récoltées, une méthodologie pour intégrer, analyser et prévoir des indicateurs économiques, est avancée. Cette méthodologie est appliquée avec succès dans le groupe STEF-TFE, leader français du transport sous température dirigée. Dans le but de planifier les ressources nécessaires pour faire face à l'activité prévue, une recherche a été menée pour modéliser les flux de marchandises en transit sur un quai de messagerie. Le résultat de la thèse est, qu'en 2010, 70 agences de transports du groupe STEF-TFE ont accès aux prévisions d'activités. Aussi, la méthodologie avancée est susceptible d'être utilisée dans divers secteurs industriels.
15

Mangeas, Morgan. "Propriétés statistiques des modèles paramétriques non-linéaires de prévisions de séries temporelles : application aux réseaux de neurones à propagation directe." Paris 1, 1996. http://www.theses.fr/1996PA010076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Todo, William. "Maintenance prédictive des systèmes d'air d'avion : une approche basée sur l'apprentissage automatique et les autoencodeurs variationnels." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30372.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Liebherr-Aerospace, acteur majeur de l'industrie aéronautique, se spécialise dans la conception, le développement et la fabrication de systèmes essentiels pour les avions. En tant que constructeur d'équipements d'origine (OEM), l'entreprise garantit la qualité de ses produits, l'approvisionnement en pièces de rechange et offre un soutien technique pour ses produits. En plus de ces rôles, elle fournit des services de maintenance, réparation et opérations (MRO) et des services Aircraft On Ground (AOG) en cas d'immobilisation de l'appareil. Dans ce contexte, l'entreprise Liebherr Aerospace Toulouse se concentre sur le développement d'outils de maintenance prédictive pour réduire le temps d'immobilisation au sol des avions et anticiper les pannes. Ce travail fait l'objet d'une thèse menée en collaboration avec l'Institut de Mathématiques de Toulouse et ANITI. La thèse se compose de cinq chapitres. Le premier chapitre porte sur l'état de l'art de la maintenance prédictive et son lien avec la détection d'anomalies. Il présente également les techniques de machine learning et de deep learning utilisées dans ce domaine. Le deuxième chapitre aborde le fonctionnement des systèmes d'air (ou "bleed air systems") et les défis rencontrés pour la maintenance prédictive de ces systèmes. Le troisième chapitre met en évidence le rôle des autoencodeurs variationnels (VAE) pour la réduction de dimension, et compare leur performance à d'autres techniques. Le quatrième chapitre présente une nouvelle méthode pour comprendre les comportements anormaux des séries temporelles multivariées à l'aide d'un autoencodeur variationnel contrastif (CVAE). Enfin, le cinquième chapitre explique comment la méthode CVAE est adaptée pour résoudre les problèmes de maintenance prédictive. Il introduit une approche semi-supervisée pour former le modèle même en présence de données censurées et compare son efficacité à d'autres modèles classiques. La technique "selective kernels", issue de la classification d'images, est adaptée à la classification de séries temporelles
Liebherr-Aerospace, a major player in the aviation industry, specializes in the design, development, and manufacturing of essential systems for aircraft. As an Original Equipment Manufacturer (OEM), the company guarantees the quality of its products, ensures the supply of spare parts, and offers technical support for its products. In addition to these roles, it provides Maintenance, Repair, and Operations (MRO) services and Aircraft On Ground (AOG) services in case of aircraft grounding. In this context, Liebherr Aerospace Toulouse focuses on developing predictive maintenance tools to reduce aircraft downtime and anticipate failures. This work is the subject of a thesis conducted in collaboration with the Toulouse Institute of Mathematics and ANITI. The thesis consists of five chapters. The first chapter addresses the state of the art in predictive maintenance and its link with anomaly detection. It also presents machine learning and deep learning techniques used in this field. The second chapter discusses the operation of air systems (also known as "bleed air systems") and the challenges encountered for the predictive maintenance of these systems. The third chapter highlights the role of Variational Autoencoders (VAE) for dimension reduction, and compares their performance to other techniques. The fourth chapter presents a new method to understand abnormal behaviors of multivariate time series using a contrastive variational autoencoder (CVAE). Finally, the fifth chapter explains how the CVAE method is adapted to solve predictive maintenance problems. It introduces a semi-supervised approach to train the model even in the presence of censored data and compares its effectiveness to other classic models. The "selective kernels" technique, derived from image classification, is adapted to time series classification
17

Çinar, Yagmur Gizem. "Prédiction de séquences basée sur des réseaux de neurones récurrents dans le contexte des séries temporelles et des sessions de recherche d'information." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse examine les défis de la prédiction de séquence dans différents scénarios, tels que la prédiction de séquence à l'aide de réseaux de neurones récurrents (RNN) dans le contexte des séries temporelles et des sessions de recherche d'informations (RI). Prédire les valeurs inconnues suivant certaines valeurs précédemment observées est appelée prédiction de séquence. Elle est largement applicable à de nombreux domaines où un comportement séquentiel est observé dans les données. Dans cette étude, nous nous concentrons sur deux tâches de prédiction de séquences: la prévision de séries temporelles et la prédiction de la requête suivante dans une session de recherche d'informations.Les séries temporelles comprennent souvent des pseudo-périodes, c'est-à-dire des intervalles de temps avec une forte corrélation entre les valeurs des séries temporelles. Les changements saisonniers dans les séries temporelles météorologiques ou la consommation d'électricité le jour et la nuit sont quelques exemples de pseudo-périodes. Dans un scénario de prévision, les pseudo-périodes correspondent à la différence entre les positions de la sortie prévue et les entrées spécifiques. Afin de capturer des périodes dans des RNN, une mémoire de la séquence d'entrée est requise. Les RNN séquence à séquence (avec mécanisme d'attention) réutilisent des (représentations des) valeurs d'entrée spécifiques pour prédire les valeurs de sortie. Les RNN séquence à séquence avec un mécanisme d'attention semblent convenir à la capture de périodes. Ainsi, nous explorons d’abord la capacité d’un mécanisme d’attention dans ce contexte. Cependant, selon notre analyse initiale, un mécanisme d’attention standard ne permet pas de capturer les périodes. Par conséquent, nous proposons un modèle RNN d’attention basé sur le contenu et sensible à la période. Ce modèle étend les RNN séquence à séquence de l'état de l'art avec un mécanisme d’attention. Il vise à capturer les périodes dans une série temporelle avec ou sans valeurs manquantes. Nos résultats expérimentaux avec des RNN contenant un mécanisme d'attention basé sur le contenu et sensible à la période montrent une amélioration significative des performances de prévision des séries temporelles univariées et multivariées sur plusieurs ensembles de données disponibles publiquement.La prédiction de la requête suivante est un autre défi de la prédiction de séquence. La prédiction de la requête suivante aide les utilisateurs à désambiguïser leur requête, à explorer différents aspects de leur besoin en information ou à former une requête précise et succincte qui permet d’optimiser les performances de la recherche. Une session de recherche est dynamique et les besoins en informations d'un utilisateur peuvent changer au cours d'une session de recherche à la suite des interactions de recherche. De plus, les interactions d'un utilisateur avec un moteur de recherche influencent les reformulations de requêtes de l'utilisateur. Considérant cette influence sur les formulations de requête, nous analysons d’abord l’origine des mots des requêtes suivantes. En utilisant l’analyse des sources des mots de requête, nous proposons deux approches de prédiction de requête: une vue d'ensemble et une vue de séquence. La vue d'ensemble adapte une approche de sac de mots en utilisant un nouvel ensemble de traits définis en fonction des sources d'analyse des mots des requêtes suivantes. Ici, la prochaine requête est prédite en utilisant un apprentissage de classification. La vue de séquence étend un modèle RNN hiérarchique en prenant en compte les sources des mots des requêtes suivantes dans la prédiction. Les sources des mots des requêtes suivantes sont incorporées à l'aide d'un mécanisme d'attention sur les mots d'interaction. Nous avons observé que l’utilisation de l’approche séquentielle, une formulation naturelle du problème, et l’exploitation de toutes les sources des mots permettent d’améliorer la prédiction des requêtes suivantes
This thesis investigates challenges of sequence prediction in different scenarios such as sequence prediction using recurrent neural networks (RNNs) in the context of time series and information retrieval (IR) search sessions. Predicting the unknown values that follow some previously observed values is basically called sequence prediction.It is widely applicable to many domains where a sequential behavior is observed in the data. In this study, we focus on two different types of sequence prediction tasks: time series forecasting and next query prediction in an information retrieval search session.Time series often display pseudo-periods, i.e. time intervals with strong correlation between values of time series. Seasonal changes in weather time series or electricity usage at day and night time are some examples of pseudo-periods. In a forecasting scenario, pseudo-periods correspond to the difference between the positions of the output being predicted and specific inputs.In order to capture periods in RNNs, one needs a memory of the input sequence. Sequence-to-sequence RNNs (with attention mechanism) reuse specific (representations of) input values to predict output values. Sequence-to-sequence RNNs with an attention mechanism seem to be adequate for capturing periods. In this manner, we first explore the capability of an attention mechanism in that context. However, according to our initial analysis, a standard attention mechanism did not perform well to capture the periods. Therefore, we propose a period-aware content-based attention RNN model. This model is an extension of state-of-the-art sequence-to-sequence RNNs with attention mechanism and it is aimed to capture the periods in time series with or without missing values.Our experimental results with period-aware content-based attention RNNs show significant improvement on univariate and multivariate time series forecasting performance on several publicly available data sets.Another challenge in sequence prediction is the next query prediction. The next query prediction helps users to disambiguate their search query, to explore different aspects of the information they need or to form a precise and succint query that leads to higher retrieval performance. A search session is dynamic, and the information need of a user might change over a search session as a result of the search interactions. Furthermore, interactions of a user with a search engine influence the user's query reformulations. Considering this influence on the query formulations, we first analyze where the next query words come from? Using the analysis of the sources of query words, we propose two next query prediction approaches: a set view and a sequence view.The set view adapts a bag-of-words approach using a novel feature set defined based on the sources of next query words analysis. Here, the next query is predicted using learning to rank. The sequence view extends a hierarchical RNN model by considering the sources of next query words in the prediction. The sources of next query words are incorporated by using an attention mechanism on the interaction words. We have observed using sequence approach, a natural formulation of the problem, and exploiting all sources of evidence lead to better next query prediction
18

Marsilli, Clément. "Mixed-Frequency Modeling and Economic Forecasting." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2023/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prévision macroéconomique à court terme est un exercice aussi complexe qu’essentiel pour la définition de la politique économique et monétaire. Les crises financières récentes ainsi que les récessions qu’ont endurées et qu’endurent aujourd’hui encore, en ce début d’année 2014, nombre de pays parmi les plus riches, témoignent de la difficulté d’anticiper les fluctuations économiques, même à des horizons proches. Les recherches effectuées dans le cadre de la thèse de doctorat qui est présentée dans ce manuscrit se sont attachées à étudier, analyser et développer des modélisations pour la prévision de croissance économique. L’ensemble d’informations à partir duquel construire une méthodologie prédictive est vaste mais également hétérogène. Celle-ci doit en effet concilier le mélange des fréquences d’échantillonnage des données et la parcimonie nécessaire à son estimation. Nous évoquons à cet effet dans un premier chapitre les éléments économétriques fondamentaux de la modélisation multi-fréquentielle. Le deuxième chapitre illustre l’apport prédictif macroéconomique que constitue l’utilisation de la volatilité des variables financières en période de retournement conjoncturel. Le troisième chapitre s’étend ensuite sur l’inférence bayésienne et nous présentons par ce biais un travail empirique issu de l’adjonction d’une volatilité stochastique à notre modèle. Enfin, le quatrième chapitre propose une étude des techniques de sélection de variables à fréquence multiple dans l’optique d’améliorer la capacité prédictive de nos modélisations. Diverses méthodologies sont à cet égard développées, leurs aptitudes empiriques sont comparées, et certains faits stylisés sont esquissés
Economic downturn and recession that many countries experienced in the wake of the global financial crisis demonstrate how important but difficult it is to forecast macroeconomic fluctuations, especially within a short time horizon. The doctoral dissertation studies, analyses and develops models for economic growth forecasting. The set of information coming from economic activity is vast and disparate. In fact, time series coming from real and financial economy do not have the same characteristics, both in terms of sampling frequency and predictive power. Therefore short-term forecasting models should both allow the use of mixed-frequency data and parsimony. The first chapter is dedicated to time series econometrics within a mixed-frequency framework. The second chapter contains two empirical works that sheds light on macro-financial linkages by assessing the leading role of the daily financial volatility in macroeconomic prediction during the Great Recession. The third chapter extends mixed-frequency model into a Bayesian framework and presents an empirical study using a stochastic volatility augmented mixed data sampling model. The fourth chapter focuses on variable selection techniques in mixed-frequency models for short-term forecasting. We address the selection issue by developing mixed-frequency-based dimension reduction techniques in a cross-validation procedure that allows automatic in-sample selection based on recent forecasting performances. Our model succeeds in constructing an objective variable selection with broad applicability
19

Fries, Sébastien. "Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLG005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes
In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification
20

Daouayry, Nassia. "Détection d’évènements anormaux dans les gros volumes de données d’utilisation issues des hélicoptères." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde le sujet de la normalité de fonctionnement des systèmes composants l’hélicoptère à travers l’exploitation des données d’utilisation issues du système de surveillances du HUMS (Health and Usage Monitoring System) pour la maintenance. Les hélicoptères sont des systèmes complexes et sont soumis à des exigences réglementaires strictes imposées par les autorités concernées par la sécurité en vol. L’analyse des données de surveillance est par conséquent un moyen privilégié pour améliorer la maintenance des hélicoptères. De plus, les données produites par le système HUMS représentent une ressource indispensable pour se rendre compte de l’état de santé des systèmes après chaque vol. Les données collectées sont nombreuses et la complexité des différents systèmes permettent difficilement des analyses cas par cas. Les travaux de cette thèse abordent principalement les problématiques liées à l’exploitation des séries multivariées pour la visualisation et la mise en place d’outil de détection d’anomalie au sein d’Airbus Helicopters. Nous avons développé différentes approches pour permettre de capter dans les données de vol une forme de normalité, relative à un système donné. Un travail sur la visualisation des séries temporelles a été développé pour identifier, avec un minimum d’apriori, les patterns représentants la normalité de fonctionnement d’un système. En se basant sur cette approche, nous avons développé « un capteur virtuel » permettant d’estimer les valeurs d’un capteur réel à partir d’un ensemble de paramètres de vol afin de détecter des évènements anormaux lorsque les valeurs de ces deux capteurs tendent à diverger
This thesis addresses the topic of the normality of the helicopter component systems functioning through the exploitation of the usage data coming from the HUMS (Health and Usage Monitoring System) for the maintenance. Helicopters are complex systems and are subject to strict regulatory requirements imposed by the authorities in charge of flight safety. The analysis of monitoring data is therefore a preferred means of improving helicopter maintenance. In addition, the data produced by the HUMS system are an indispensable resource for assessing the health of the systems after each flight. The data collected are numerous and the complexity of the different systems makes it difficult to analyze them on a case-by-case basis.The work of this thesis deals mainly with the issues related to the utilization of multivariate series for the visualization and the implementation of anomaly detection tools within Airbus Helicopters.We have developed different approaches to catch in the flight data a relative normality for a given system.A work on the visualization of time series has been developed to identify the patterns representing the normality of a system's operation.Based on this approach, we have developed a "virtual sensor" allowing to estimate the values of a real sensor from a set of flight parameters in order to detect abnormal events when the values of these two sensors tend to diverge
21

Salotti, Julien. "Méthodes de sélection de voisinage pour la prévision à court-terme du trafic urbain." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de la ville intelligente, le besoin d’informer, d’anticiper, et d’agir sur l’état du réseau routier est à l'origine du développement de nombreuses méthodes de prévision de trafic. L’augmentation de nos capacités à stocker et à traiter des données, notamment en temps réel, ainsi que le nombre croissant de segments de routes équipés de capteurs sont de nouveaux éléments à considérer lors du choix d’une méthode de prévision. Malgré de nombreux travaux de recherche, nous ne disposons toujours pas d’une compréhension claire des critères permettant de prédire efficacement à l’échelle d’un réseau routier. Dans cette thèse, nous nous appuyons sur deux jeux de données réelles, collectés respectivement sur le réseau urbain de la Métropole de Lyon, et sur les autoroutes urbaines de Marseille. Nous étudions la performance de différentes méthodes issues de la littérature statistiques des séries temporelles (méthodes autorégressives) et de la littérature de l’apprentissage artificiel (machine à vecteurs de support, réseaux de neurones). Nous étudions également l’apport de différentes stratégies de sélection de voisinage (sélection d’un sous-ensemble de capteurs utiles pour la prévision d’un capteur en particulier) pour améliorer la qualité de la prévision, tout en diminuant la complexité des modèles appris. Nous comparons ainsi une approche classique (la sélection Lasso) et testons pour la première fois sur des données de trafic une méthode issue de la théorie de l’information, ayant de très bons résultats sur des problèmes similaires de physique (tigramite). Nos résultats expérimentaux confirment l’utilité de méchanismes de sélection de voisinage et illustrent la complémentarité des approches de prévisions, selon le type de réseau (urbain, autoroute) et l’horizon de prévision (de 6 à 30 minutes)
In the context of Smart Cities, there is a growing need to inform drivers, anticipate congestion and take action to manage the state of the traffic flow on the road network. This need has driven the development of a large number of traffic forecasting methods. The last decades have seen the rise in computing power, in storage capacity and in our ability to process information in real-time. More and more road segments are equipped with traffic sensors. These evolutions are new elements to take into consideration in order to design accurate traffic forecasting algorithms. Despite the large amount of research efforts on this topic, there is still no clear understanding of which criteria are required in order to achieve a high forecasting performance at the network scale. In this thesis, we study two real datasets collected in two main French cities: Lyon and Marseille. The Lyon dataset describes the traffic flow on an urban network. The Marseille dataset descrobes the traffic flow on urban freeways. We evaluate the performance of methods from different fields: time series analysis (autoregressive models), and different subfields of machine learning (support vector machines, neural networks, nearest-neighbors regression). We also study different neighborhood selection strategies in order to improve the forecasting accuracy, while decreasing the complexity of the models. We evaluate a well-known approach (Lasso) and apply for the first time on traffic data a method based on information theory and graphical models (TiGraMITe), which has shown very effective on similar physics applications. Our experimental results confirm the usefulness of neighborhood selection mechanisms in some contexts and illustrate the complementarity of forecasting methods with respect to the type of network (urban, freeway) and the forecasting horizon (from 6 to 30 minutes)
22

Cifonelli, Antonio. "Probabilistic exponential smoothing for explainable AI in the supply chain domain." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMIR41.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de pénétration de cette nouvelle technologie a rencontré certains freins au sein des entreprises, en particulier, les coûts de mise œuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problèmes de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes : - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve ; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite : le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entière est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au cœur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en œuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspond mieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter [...]
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow
23

Fries, Sébastien. "Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLG005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes
In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification
24

Rakotoarisoa, Mahefa. "Les risques hydrologiques dans les bassins versants sous contrôle anthropique : modélisation de l'aléa, de la vulnérabilité et des conséquences sur les sociétés. : Cas de la région Sud-ouest de Madagascar." Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0067/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La ville de Toliara qui se trouve à l’exutoire du bassin de Fiherenana (Madagascar) est soumise chaque année aux aléas inondations. Les enjeux sont donc d'une importance majeure dans cette région. Cette étude débute par l’analyse de l’aléa avec les données hydro climatiques existantes. On cherche alors à déterminer les tendances en utilisant des modèles statistiques basés sur les séries temporelles. Une méthode de reconstitution des données manquantes est alors proposée. Ensuite, deux approches sont menées afin d’évaluer la vulnérabilité de la ville de Toliara et des villages alentours : une approche statique, à partir de relevés de terrain et de l’utilisation d’un système d’information géographique (SIG) ; et une autre avec l'utilisation d'un modèle multi-agents (SMA). La première étape est la cartographie d’un indicateur de vulnérabilité qui est l’agencement de plusieurs critères statiques propre à chaque maison comme la hauteur d’eau potentielle ou la typologie architecturale. La deuxième partie mettra en scène des agents afin de simuler un évènement catastrophique (montée des eaux et évacuation en simultanée). On cherche à savoir quelles sont les chances pour que les occupants d’une habitation puissent sortir indemne d’une inondation, en comparant divers paramètres et scénarios afin d’évaluer le degré de vulnérabilité de chaque ménage. Certains scénarios prennent en compte l’effet de certaines prises de décisions (Informations, sensibilisations etc.). Les indicateurs et les simulations permettent alors de mieux appréhender les risques inondations afin d’être une aide à la gestion des crises
Hydrological risks are recurrent on the Fiherenana watershed - Madagascar. The city of Toliara, which is located at the outlet of the river basin, is subject each year to hurricane hazards and floods. The stakes are of major importance in this part of the island. This study begins with the analysis of hazard by collecting all existing hydro-climatic data on the catchment. It then seeks to determine trends, despite the significant lack of data, using statistical models (time series). Then, two approaches are used to assess the vulnerability of the city of Toliara and its surrounding villages. First, a static approach, from surveys of land and the use of GIS are conducted. Then, the second method is based on a multi-agent model. The first step is the mapping of a microscale vulnerability index which is an arrangement of several static criteria. For each House, there are several criteria of vulnerability such as potential water depth or architectural typology. As for the second part, scenes of agents are simulated in order to evaluate the degree of housing vulnerability to flooding. The model aims to estimate the chances of the occupants to escape from a catastrophic flood. For this purpose, we compare various settings and scenarios, some of which are conducted to take into account the effect of various decisions made by the responsible entities (awareness campaign etc.). The simulation consists of two essential parts: the simulation of the rise of water and the simulation of the behaviour of the people facing the occurence of hazard. Indicators and simulations allow to better understand the risks in order to help crisis management. Key Words: Hy
25

Boulegane, Dihia. "Machine learning algorithms for dynamic Internet of Things." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La croissance rapide de l’Internet des Objets (IdO) ainsi que la prolifération des capteurs ont donné lieu à diverses sources de données qui génèrent continuellement de grandes quantités de données et à une grande vitesse sous la forme de flux. Ces flux sont essentiels dans le processus de prise de décision dans différents secteurs d’activité et ce grâce aux techniques d’intelligence artificielle et d’apprentissage automatique afin d’extraire des connaissances précieuses et les transformer en actions pertinentes. Par ailleurs, les données sont souvent associées à un indicateur temporel, appelé flux de données temporel qui est défini comme étant une séquence infinie d’observations capturées à intervalles réguliers, mais pas nécessairement. La prévision est une tâche complexe dans le domaine de l’IA et vise à comprendre le processus générant les observations au fil du temps sur la base d’un historique de données afin de prédire le comportement futur. L’apprentissage incremental et adaptatif est le domaine de recherche émergeant dédié à l’analyse des flux de données. La thèse se penche sur les méthodes d’ensemble qui fusionnent de manière dynamique plusieurs modèles prédictifs accomplissant ainsi des résultats compétitifs malgré leur coût élevé en termes de mémoire et de temps de calcul. Nous étudions différentes approches pour estimer la performance de chaque modèle de prévision individuel compris dans l’ensemble en fonction des données en introduisant de nouvelles méthodes basées sur le fenêtrage et le méta-apprentissage. Nous proposons différentes méthodes de sélection qui visent à constituer un comité de modèles précis et divers. Les prédictions de ces modèles sont ensuite pondérées et agrégées. La deuxième partie de la thèse traite de la compression des méthodes d’ensemble qui vise à produire un modèle individuel afin d’imiter le comportement d’un ensemble complexe tout en réduisant son coût. Pour finir, nous présentons ”Real-Time Machine Learning Competition on Data Streams”, dans le cadre de BigDataCup Challenge de la conférence IEEE Big Data 2019 ainsi que la plateforme dédiée SCALAR
With the rapid growth of Internet-of-Things (IoT) devices and sensors, sources that are continuously releasing and curating vast amount of data at high pace in the form of stream. The ubiquitous data streams are essential for data driven decisionmaking in different business sectors using Artificial Intelligence (AI) and Machine Learning (ML) techniques in order to extract valuable knowledge and turn it to appropriate actions. Besides, the data being collected is often associated with a temporal indicator, referred to as temporal data stream that is a potentially infinite sequence of observations captured over time at regular intervals, but not necessarily. Forecasting is a challenging tasks in the field of AI and aims at understanding the process generating the observations over time based on past data in order to accurately predict future behavior. Stream Learning is the emerging research field which focuses on learning from infinite and evolving data streams. The thesis tackles dynamic model combination that achieves competitive results despite their high computational costs in terms of memory and time. We study several approaches to estimate the predictive performance of individual forecasting models according to the data and contribute by introducing novel windowing and meta-learning based methods to cope with evolving data streams. Subsequently, we propose different selection methods that aim at constituting a committee of accurate and diverse models. The predictions of these models are then weighted and aggregated. The second part addresses model compression that aims at building a single model to mimic the behavior of a highly performing and complex ensemble while reducing its complexity. Finally, we present the first streaming competition ”Real-time Machine Learning Competition on Data Streams”, at the IEEE Big Data 2019 conference, using the new SCALAR platform
26

Hmamouche, Youssef. "Prédiction des séries temporelles larges." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
27

Hmamouche, Youssef. "Prédiction des séries temporelles larges." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
28

Hugueney, Bernard. "Représentations symboliques de longues séries temporelles." Paris 6, 2003. http://www.theses.fr/2003PA066161.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Nowakowski, Samuel. "Détection de défauts dans les séries temporelles." Nancy 1, 1989. http://www.theses.fr/1989NAN10074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Utilisation des calculs de distances pour résoudre des problèmes rencontrés pour les tests de détection de changements tels que le test du rapport de vraisemblance généralisé. Expérimentation de la méthode de la variable instrumentale
30

Haykal, Vanessa. "Modélisation des séries temporelles par apprentissage profond." Thesis, Tours, 2019. http://www.theses.fr/2019TOUR4019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prévision des séries temporelles est un problème qui est traité depuis de nombreuses années. Dans cette thèse, on s’est intéressé aux méthodes issues de l’apprentissage profond. Il est bien connu que si les relations entre les données sont temporelles, il est difficile de les analyser et de les prévoir avec précision en raison des tendances non linéaires et du bruit présent, spécifiquement pour les séries financières et électriques. A partir de ce contexte, nous proposons une nouvelle architecture de réduction de bruit qui modélise des séries d’erreurs récursives pour améliorer les prévisions. L’apprentissage hybride fusionne simultanément un réseau de neurones convolutifs (CNN) et un réseau récurrent à mémoire long et court termes (LSTM). Ce modèle se distingue par sa capacité à capturer globalement différentes propriétés telles que les caractéristiques locales du signal, d’apprendre les dépendances non linéaires à long terme et de s’adapter également à une résistance élevée au bruit. La seconde contribution concerne les limitations des approches globales en raison des changements de régimes dynamiques dans le signal. Nous présentons donc une modification locale non-supervisée de notre architecture précédente afin d’ajuster les résultats en pilotant le modèle par un modèle de Markov caché (HMM). Enfin, on s’est également intéressé aux techniques de multi-résolutions pour améliorer les performances des couches convolutives, notamment par la méthode de décomposition en mode variationnel (VMD)
Time series prediction is a problem that has been addressed for many years. In this thesis, we have been interested in methods resulting from deep learning. It is well known that if the relationships between the data are temporal, it is difficult to analyze and predict accurately due to non-linear trends and the existence of noise specifically in the financial and electrical series. From this context, we propose a new hybrid noise reduction architecture that models the recursive error series to improve predictions. The learning process fusessimultaneouslyaconvolutionalneuralnetwork(CNN)andarecurrentlongshort-term memory network (LSTM). This model is distinguished by its ability to capture globally a variety of hybrid properties, where it is able to extract local signal features, to learn long-term and non-linear dependencies, and to have a high noise resistance. The second contribution concerns the limitations of the global approaches because of the dynamic switching regimes in the signal. We present a local unsupervised modification with our previous architecture in order to adjust the results by adapting the Hidden Markov Model (HMM). Finally, we were also interested in multi-resolution techniques to improve the performance of the convolutional layers, notably by using the variational mode decomposition method (VMD)
31

Jabbari, Ali. "Encodage visuel composite pour les séries temporelles." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les séries temporelles sont l'un des types de données les plus courants dans divers domaines scientifiques, industriels et financiers. Selon le contexte, l'analyse des séries temporelles est effectuée à diverses fins: prévision, estimation, classification et détection des tendances et des événements. Grâce aux capacités exceptionnelles de la perception visuelle humaine, la visualisation reste l'un des outils les plus puissants pour l'analyse de données, en particulier pour les données temporelles. Avec la croissance de volume et de la complexité des jeux de données, de nouvelles techniques de visualisation sont clairement nécessaires pour améliorer l'analyse des données. Elles visent à faciliter l'analyse visuelle dans le cas où des situations ou des tâches sont bien spécifiées, ou à favoriser l'analyse exploratoire non guidée.La visualisation est basée sur le "mapping visuel", un processus qui consiste à associer les valeurs de données aux canaux visuels comme la position, la taille et la couleur des éléments graphiques. A cet égard, la forme la plus connue de visualisation des séries temporelles, c'est-à-dire les graphiques linéaires ("line charts" en anglais), consiste en une mise en correspondance des valeurs de données avec la position verticale de la ligne. Cependant, un seul mapping visuel ne convient pas à toutes les situations et objectifs analytiques.Notre but est d'introduire des alternatives au mapping visuel conventionnel et de trouver des situations dans lesquelles, la nouvelle approche compense la simplicité et la familiarité des techniques existantes. Nous présentons une revue de l'état de l'art sur la visualisation des séries chronologiques, puis nous nous concentrons sur les approches existantes du mapping visuel.Ensuite, nous présentons nos contributions. Notre première contribution est une étude systématique d'un «mapping visuelle composite» qui consiste à utiliser des combinaisons de canaux visuels pour communiquer différentes facettes d'une série temporelle. Au moyen de plusieurs expériences avec des utilisateurs, nous comparons les nouveaux mappings visuels à une technique de référence existante et nous mesurons la vitesse et la précision des utilisateurs dans différentes tâches analytiques. Nos résultats montrent que les nouvelles conceptions visuelles conduisent à des performances analytiques proches de celles des techniques existantes sans être inutilement complexes ou nécessiter un entraînement. De plus, certains mappings proposés surpassent les techniques existantes dans les situations de contraintes spatiales. L'efficacité spatiale est d'une grande importance pour la visualisation simultanée de grands volumes de données ou de visualisation sur de petits écrans. Les deux scénarios font partie des défis actuels de la visualisation de l'information
Time series are one of the most common types of recorded data in various scientific, industrial, and financial domains. Depending on the context, time series analysis are used for a variety of purposes: forecasting, estimation, classification, and trend and event detection. Thanks to the outstanding capabilities of human visual perception, visualization remains one of the most powerful tools for data analysis, particularly for time series. With the increase in data sets' volume and complexity, new visualization techniques are clearly needed to improve data analysis. They aim to facilitate visual analysis in specified situations, tasks, or for unguided exploratory analysis.Visualization is based upon visual mapping, which consists in association of data values to visual channels, e.g. position, size, and color of the graphical elements. In this regard, the most familiar form of time series visualization, i.e. line charts, consists in a mapping of data values to the vertical position of the line. However, a single visual mapping is not suitable for all situations and analytical objectives.Our goal is to introduce alternatives to the conventional visual mapping and find situations in which, the new approach compensate for the simplicity and familiarity of the existing techniques. We present a review of the existing literature on time series visualization and then, we focus on the existing approaches to visual mapping.Next, we present our contributions. Our first contribution is a systematic study of a "composite" visual mapping which consists in using combinations of visual channels to communicate different facets of a time series. By means of several user studies, we compare our new visual mappings with an existing reference technique and we measure users' speed and accuracy in different analytical tasks. Our results show that the new visual designs lead to analytical performances close to those of the existing techniques without being unnecessarily complex or requiring training. Also, some of the proposed mappings outperform the existing techniques in space constraint situations. Space efficiency is of great importance to simultaneous visualization of large volumes of data or visualization on small screens. Both scenarios are among the current challenges in information visualization
32

Assaad, Charles. "Découvertes de relations causales entre séries temporelles." Electronic Thesis or Diss., Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALM019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour but d'expliquer les concepts et principes centraux de la causalité. Nous nous intéresserons particulièrement à la découverte causale à partir de séries temporelles, domaine émergent aujourd’hui avec, notamment, les données industrielles de capteurs. Dans les deux premiers chapitres, nous présentons les concepts puis les algorithmes existants dans ce domaine. Ensuite, nous présentons une nouvelle approche qui infère un graphe récapitulatif du système causal sous-jacent aux séries temporelles tout en assouplissant le cadre idéalisé de fréquences d'échantillonnage égaux, tout en discutant ses hypothèses et sa validité. La principale nouveauté dans cette méthode réside dans l'introduction de la mesure d'information mutuelle temporelle causale qui permet de détecter l'indépendance et l'indépendance conditionnelle entre deux séries temporelles, et l’établissement d'un lien apparent entre l'entropie et le principe d'augmentation de la probabilité d'un effet sachant sa cause, lien qui peut être utilisé pour construire de nouvelles règles pour l'orientation de la direction de la causalité. De plus, à travers le développement de la première méthode, nous proposons plusieurs extensions qui permettent de gérer les causes communes cachées, de déduire un graphe causal temporel à partir d'un graphe récapitulatif et de pouvoir s’adapter aux données ordonnées (pas nécessairement temporelles). Puis, nous nous concentrons sur la découverte de relations causales à partir d'une distribution statistique qui n'est pas entièrement fidèle au graphe causal réel et sur la distinction entre une cause commune et une cause intermédiaire même, en absence d'indicateur de temps. L'aspect clé de notre réponse à ce problème est le recours au principe du bruit additif pour déduire un supergraphe dirigé contenant le graphe causal. Pour converger vers le graphe causal, nous utilisons une nouvelle mesure appelée l'entropie de causalité temporelle qui élague pour chaque nœud du supergraphe dirigé, les parents qui en sont conditionnellement indépendants. En outre, nous explorons des extensions complémentaires de notre deuxième méthode qui impliquent une stratégie par paires et une stratégie multitâche. Nous effectuons une comparaison expérimentale approfondie des algorithmes proposés sur des ensembles de données à la fois synthétiques et réels et nous montrons leurs performances pratiques prometteuses: gain en complexité temporelle tout en préservant la précision
This thesis aims to give a broad coverage of central concepts and principles of causation and in particular the ones involved in the emerging approaches to causal discovery from time series.After reviewing concepts and algorithms, we first present a new approach that infer a summary graph of the causal system underlying the observational time series while relaxing the idealized setting of equal sampling rates and discuss the assumptions underlying its validity. The gist of our proposal lies in the introduction of the causal temporal mutual information measure that can detect the independence and the conditional independence between two time series, and in making an apparent connection between entropy and the probability raising principle that can be used for building new rules for the orientation of the direction of causation. Moreover, through the development of this base method, we propose several extensions, namely to handle hidden confounders, to infer a window causal graph given a summary graph, and to consider sequences instead of time series.Secondly, we focus on the discovery of causal relations from a statistical distribution that is not entirely faithful to the real causal graph and on distinguishing a common cause from an intermediate cause even in the absence of a time indicator. The key aspect of our answer to this problem is the reliance on the additive noise principle to infer a directed supergraph that contains the causal graph. To converge toward the causal graph, we use in a second step a new measure called the temporal causation entropy that prunes for each node of the directed supergraph, the parents that are conditionally independent of their child. Furthermore, we explore complementary extensions of our second base method that involve a pairwise strategy which reduces through multitask learning and a denoising technique, the number of functions that need to be estimated. We perform an extensive experimental comparison of the proposed algorithms on both synthetic and real datasets and demonstrate their promising practical performance: gaining in time complexity while preserving accuracy
33

Frambourg, Cédric. "Apprentissage d'appariements pour la discrimination de séries temporelles." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00948989.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il n'est pas rare dans les applications que les profils globaux des séries temporelles soient dissimilaires au sein d'une même classe ou, inversement, exhibent des dynamiques similaires pour des classes différentes. L'objectif de ce travail consiste à discriminer de telles structures de séries temporelles complexes. Nous proposons une nouvelle approche d'apprentissage d'appariements discriminants visant à connecter les séries temporelles selon les caractéristiques partagées dans les classes et différentielles entre les classes. Cette approche est fondée sur un critère de variance/covariance pour la pénalisation des liens entre les observations en fonction de la variabilité intra et inter classes induite. Pour ce faire, l'expression de la variance/covariance classique est étendue à un ensemble de séries temporelles, puis à des classes de séries. Nous montrons ensuite comment les appariements appris peuvent être utilisés pour la définition d'une métrique locale, pondérée, restreignant la comparaison de séries à leurs attributs discriminants. Les expérimentations menées soulignent la capacité des appariements appris à révéler des signatures fines discriminantes et montrent l'efficacité de la métrique apprise pour la classification de séries temporelles complexes.
34

El, Ghini Ahmed. "Contribution à l'identification de modèles de séries temporelles." Lille 3, 2008. http://www.theses.fr/2008LIL30017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse de doctorat comporte deux parties traitant des problèmes d'identification et de sélection en économétrie. Nous étudions les sujets suivants : (1) le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation, d'autocorrélation partielle, d'autocorrélation inverse et d'autocorrélation partielle inverse ; (2) l'estimation de la fonction d'autocorrélation inverse dans le cadre des séries temporelles non linéaires. Dans une première partie, nous considérons le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation susmentionnées. Nous construisons des tests statistiques basés sur des estimateurs empiriques de ces fonctions puis nous étudions leur distribution asymptotique. En utilisant l'approche de Bahadur et de Pitman, nous comparons la performance de ces fonctions d'autocorrélation dans la détection de l'ordre d'une moyenne mobile et d'un modèle autorégressif. Par la suite, nous nous intéressons à l'identification du processus inverse d'un modèle ARMA et à l'étude des ses propriétés probabilistes. Enfin, nous caractérisons la réversibilité temporelle à l'aide des processus dual et inverse. La deuxième partie est consacrée à l'estimation de la fonction d'autocorrélation inverse dans le cadre des processus non linéaires. Sous certaines conditions de régularité, nous étudions les propriétés asymptotiques des autocorrélations inverses empiriques pour un processus stationnaire et fortement mélangeant. Nous obtenons la convergence et la normalité asymptotique des estimateurs. Par la suite, nous considérons le cas d'un processus linéaire généré par un bruit blanc de type GARCH. Nous obtenons une formule explicite pour la matrice d'autocovariance asymptotique. A l'aide d'exemples, nous montrons que la formule standard de cette matrice n'est pas valable lorsque le processus générateur des données est non linéaire. Enfin, nous appliquons les résultats précédents pour montrer la normalité asymptotique des estimateurs des paramètres d'une moyenne mobile faible. Nos résultats sont illustrés par des expériences
This PhD dissertation consists of two parts dealing with the probelms of identification and selection in econometrics. Two mains topics are considered : (1) time series model identification by using (inverse) autocorrelation and (inverse) partial autocorrelation functions ; (2) estimation of inverse autocorrelation function in the framework of nonlinear tima series. The two parts are summarized below. In the first part of this work, we consider time series model identification y using (inverse) autocorrelation and (inverse) partial autocorrelation functions. We construct statistical tests based on estimators of these functions and establish their asymptotic distribution. Using Bahadur and Pitman approaches, we compare the performance of (inverse) autocorelations and (inverse) partial autocorrelations in detecting the order of moving average and autoregressive model. Next, we study the identification of the inverse process of an ARMA model and their probalistic properties. Finally, we characterize the time reversibility by means of the dual and inverse processes. The second part is devoted to estimation of the inverse autocorrelation function in the framework of nonlinear time series. Undes some regularity conditions, we study the asymptotic properties of empirical inverse autocorrelations for stationary and strongly mixing process. We establish the consistency and the asymptotic normality of the estimators. Next, we consider the case of linear process with GARCH errors and obtain means of some examples that the standard formula can be misleading if the generating process is non linear. Finally, we apply our previous results to prove the asymptotic normality of the parameter estimates of weak moving average. Our results are illustrated by Monte Carlo experiments and real data experiences
35

Guillemé, Maël. "Extraction de connaissances interprétables dans des séries temporelles." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Energiency est une entreprise qui vend à des industriels une plate-forme pour leur permettre d’analyser leurs données de consommation d’énergie, représentées sous la forme de séries temporelles. Cette plate-forme intègre des modèles d’apprentissage automatique pour répondre aux besoins des clients. L’application de tels modèles sur des séries temporelles rencontre deux problèmes : d’une part certaines approches classiques d’apprentissage automatique ont été conçues pour des données tabulaires et doivent être adaptées aux séries temporelles, d’autre part les résultats de certaines approches sont difficilement compréhensibles par les utilisateurs finaux. Dans la première partie, nous adaptons une méthode de recherche d’occurrences de règles temporelles sur des séries temporelles issues de machines et d’infrastructures industrielles. Une règle temporelle capture des relations de succession entre des comportements dans les séries temporelles. Dans des séries industrielles, à cause de la présence de nombreux facteurs extérieurs, ces comportements réguliers peuvent présenter des perturbations. Les méthodes de recherche d’occurrences de règles temporelles actuelles utilisent une mesure de distance pour évaluer la similarité entre des sous-séries. Cependant, ces mesures ne sont pas adaptées pour évaluer la similarité de séries déformées tel que dans les séries temporelles industrielles. La première contribution de cette thèse est la proposition d’une méthode de recherche d’occurrences de règles temporelles capable de capturer cette variabilité dans des séries temporelles industrielles. Pour cela la méthode intègre l’utilisation de mesures de distance élastiques capables d’évaluer la similarité entre des séries temporelles légèrement déformées
Energiency is a company that sells a platform to allow manufacturers to analyze their energy consumption data represented in the form of time series. This platform integrates machine learning models to meet customer needs. The application of such models to time series encounters two problems: on the one hand, some classical machine learning approaches have been designed for tabular data and must be adapted to time series, on the other hand, the results of some approaches are difficult for end users to understand. In the first part, we adapt a method to search for occurrences of temporal rules on time series from machines and industrial infrastructures. A temporal rule captures successional relationships between behaviors in time series . In industrial series, due to the presence of many external factors, these regular behaviours can be disruptive. Current methods for searching the occurrences of a rule use a distance measure to assess the similarity between sub-series. However, these measurements are not suitable for assessing the similarity of distorted series such as those in industrial settings. The first contribution of this thesis is the proposal of a method for searching for occurrences of temporal rules capable of capturing this variability in industrial time series. For this purpose, the method integrates the use of elastic distance measurements capable of assessing the similarity between slightly deformed time series. The second part of the thesis is devoted to the interpretability of time series classification methods, i.e. the ability of a classifier to return explanations for its results. These explanations must be understandable by a human. Classification is the task of associating a time series with a category. For an end user inclined to make decisions based on a classifier’s results, understanding the rationale behind those results is of great importance. Otherwise, it is like having blind confidence in the classifier. The second contribution of this thesis is an interpretable time series classifier that can directly provide explanations for its results. This classifier uses local information on time series to discriminate against them. The third and last contribution of this thesis, a method to explain a posteriori any result of any classifier. We carried out a user study to evaluate the interpretability of our method
36

Bailly, Adeline. "Classification de séries temporelles avec applications en télédétection." Thesis, Rennes 2, 2018. http://www.theses.fr/2018REN20021/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La classification de séries temporelles a suscité beaucoup d’intérêt au cours des dernières années en raison de ces nombreuses applications. Nous commençons par proposer la méthode Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) qui utilise des descripteurs locaux basés sur la méthode SIFT, adaptés pour les données en une dimension et extraits à intervalles réguliers. Des expériences approfondies montrent que notre méthode D-BoTSW surpassent de façon significative presque tous les classificateurs de référence comparés. Ensuite, nous proposons un nouvel algorithmebasé sur l’algorithme Learning Time Series Shapelets (LTS) que nous appelons Adversarially- Built Shapelets (ABS). Cette méthode est basée sur l’introduction d’exemples adversaires dans le processus d’apprentissage de LTS et elle permet de générer des shapelets plus robustes. Des expériences montrent une amélioration significative de la performance entre l’algorithme de base et notre proposition. En raison du manque de jeux de données labelisés, formatés et disponibles enligne, nous utilisons deux jeux de données appelés TiSeLaC et Brazilian-Amazon
Time Series Classification (TSC) has received an important amount of interest over the past years due to many real-life applications. In this PhD, we create new algorithms for TSC, with a particular emphasis on Remote Sensing (RS) time series data. We first propose the Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) method that uses dense local features based on SIFT features for 1D data. Extensive experiments exhibit that D-BoTSW significantly outperforms nearly all compared standalone baseline classifiers. Then, we propose an enhancement of the Learning Time Series Shapelets (LTS) algorithm called Adversarially-Built Shapelets (ABS) based on the introduction of adversarial time series during the learning process. Adversarial time series provide an additional regularization benefit for the shapelets and experiments show a performance improvementbetween the baseline and our proposed framework. Due to the lack of available RS time series datasets,we also present and experiment on two remote sensing time series datasets called TiSeLaCand Brazilian-Amazon
37

Gautier, Antony. "Modèles de séries temporelles à coefficients dépendants du temps." Lille 3, 2004. http://www.theses.fr/2004LIL30034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions les propriétés probalistes et/ou statistiques de modèles linéaires ou non-linéaires de séries temporelles à coefficients dépendant du temps. La première partie de la thèse est dévolue à la statistique des modèles ARMA dont les coefficients varient en fonction d'événements récurrents, mais non-périodiques. Les propriétés asymptotiques (convergence forte et normalité) des estimateurs des moindres carrés sont établies. Le cas particulier des modèles ARMA à changement de régime Markoviens est ensuite considéré. La seconde partie de la thèse étudie l'influence asymptotique de la correction par la moyenne des séries temporelles sur l'estimation par moindres carrés de modèles ARMA périodiques. Dans la dernière partie de la thèse, nous étendons nos recherches à des modèles bilinéaires à coefficients périodiques. Les résultats obtenus sont régulièrement illustrés à distance finie à partir d'expériences de Monte Carlo
38

Dola, Béchir. "Problèmes économétriques d'analyse des séries temporelles à mémoire longue." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00794676.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modalités d'investigation de notre thèse sont menées, sous trois angles : épistémologique, statistique et économique. En première partie de la thèse, dans une approche épistémologique, nous spécifions en quoi le concept de mémoire longue peut apparaître, comme un nouveau paradigme kühnien pour la macroéconomie et la finance. En deuxième partie de la thèse, dans une approche statistique, semi-paramétrique, nous proposons trois extensions de la statistique IR (Increment Ratio) de Surgailis et al, (2008). Premièrement, un théorème central limite multidimensionnelle est établi pour un vecteur composé de plusieurs statistiques IR. Deuxièmement, un test d'adéquation de qualité d'ajustement de type chi2 est déduit de ce théorème. Troisièmement, ce théorème nous a permis de construire des versions adaptatives de l'estimateur et du test d'adéquation étudiés dans un cadre semi-paramétrique général. Nous prouvons que l'estimateur adaptatif du paramètre de la mémoire longue suit une propriété d'Oracle. Les simulations que nous avons menées attestent de la précision et de la robustesse de l'estimateur et du test d'adéquation, même dans le cas non gaussien. En troisième partie de la thèse, nous en déduisons deux tests respectivement de stationnarité et de non stationnarité pour les processus I(d) stationnaires et non stationnaires, pour tout réel d tel que (-0.5< d<1.25). Dans une approche économique, au sein de cette troisième partie de la thèse, nous mettons en oeuvre les résultats théoriques précédents comparés à ceux issus d'autres méthodes statistiques: paramétriques, semi-paramétriques ou non paramétriques (ou heuristiques) appliquées à des séries économiques et financières.
39

Ahmad, Ali. "Contribution à l'économétrie des séries temporelles à valeurs entières." Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
40

Jebreen, Kamel. "Modèles graphiques pour la classification et les séries temporelles." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0248/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous nous intéressons aux méthodes de classifications supervisées utilisant les réseaux bayésiens. L'avantage majeur de ces méthodes est qu'elles peuvent prendre en compte les interactions entre les variables explicatives. Dans une première partie nous proposons une procédure de discrétisation spécifique et une procédure de sélection de variables qui permettent d'améliorer considérablement les classifieurs basés sur des réseaux bayésiens. Cette procédure a montré de très bonnes performances empiriques sur un grand choix de jeux de données connus de l’entrepôt d'apprentissage automatique (UCI Machine Learning repository). Une application pour la prévision de type d’épilepsie à partir de de caractéristiques des patients extraites des images de Tomographie par émission de positrons (TEP) confirme l’efficacité de notre approche comparé à des approches communes de classifications supervisées. Dans la deuxième partie de cette thèse nous nous intéressons à la modélisation des interactions entre des variables dans le contexte de séries chronologiques en grande dimension. Nous avons proposé deux nouvelles approches. La première, similaire à la technique "neighborhood Lasso" remplace la technique Lasso par des machines à vecteurs de supports. La deuxième approche est un réseau bayésien restreint: les variables observées à chaque instant et à l’instant précédent sont utilisées dans un réseau dont la structure est restreinte. Nous montrons l’efficacité de ces approches par des simulations utilisant des donnés simulées issues de modèles linéaires, non-linéaires et un mélange des deux
First, in this dissertation, we will show that Bayesian networks classifiers are very accurate models when compared to other classical machine learning methods. Discretising input variables often increase the performance of Bayesian networks classifiers, as does a feature selection procedure. Different types of Bayesian networks may be used for supervised classification. We combine such approaches together with feature selection and discretisation to show that such a combination gives rise to powerful classifiers. A large choice of data sets from the UCI machine learning repository are used in our experiments, and the application to Epilepsy type prediction based on PET scan data confirms the efficiency of our approach. Second, in this dissertation we also consider modelling interaction between a set of variables in the context of time series and high dimension. We suggest two approaches; the first is similar to the neighbourhood lasso where the lasso model is replaced by Support Vector Machines (SVMs); the second is a restricted Bayesian network for time series. We demonstrate the efficiency of our approaches simulations using linear and nonlinear data set and a mixture of both
41

Desrues, Mathilde. "Surveillance opérationnelle de mouvements gravitaires par séries temporelles d'images." Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAH002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comprendre la dynamique et le comportement des mouvements gravitaires est essentiel dans l’anticipation de catastrophes naturelles et donc dans la protection des infrastructures et des personnes. Plusieurs techniques géodésiques apportent déjà des informations sur les champs de déplacement / déformation des pentes instables, techniques qui permettent d’analyser les propriétés géométriques des masses en mouvement et le comportement mécanique des pentes. En combinant des séries temporelles d’images optiques terrestres et ces techniques classiques, la quantité d’informations collectées est densifiée et répartie dans l’espace. Les capteurs passifs numériques sont de plus en plus utilisés pour la détection et la surveillance de mouvements gravitationnels. Ils fournissent à la fois des informations qualitatives, telles que la détection des changements de surface, et une caractérisation quantitative, telle que la quantification du déplacement du sol par des techniques de corrélation d’images. Notre approche consiste à analyser des séries chronologiques d’images terrestres provenant soit d’une seule caméra fixe, soit de caméras stéreoscopiques, ces dernières permettant d’obtenir des informations redondantes et complémentaires. Les séries temporelles sont traitées pour détecter les zones dans lesquelles le comportement cinématique est homogène. Les propriétés de la pente, telles que le volume de glissement et l’épaisseur de la masse en mouvement, font partie des résultats de l’analyse afin d’obtenir une vue d’ensemble aussi complète que possible. Ces travaux sont présentés au travers de l’analyse de quatre glissements de terrain situés dans les Alpes françaises. Ils interviennent dans le cadre d’une convention CIFRE/ANRT entre la société SAGE - Société Alpine de GEotechnique (Gières, France) et l’IPGS – Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
Understanding the dynamics and the behavior of gravitational slope movements is essential to anticipate catastrophic failures and thus to protect lives and infrastructures. Several geodetic techniques already bring some information on the displacement / deformation fields of the unstable slopes. These techniques allow the analysis of the geometrical properties of the moving masses and of the mechanical behavior of the slopes. By combining time series of passive terrestrial imagery and these classical techniques, the amount of collected information is densified and spatially distributed. Digital passive sensors are increasingly used for the detection and the monitoring of gravitational motion. They provide both qualitative information, such as the detection of surface changes, and a quantitative characterization, such as the quantification of the soil displacement by correlation techniques. Our approach consists in analyzing time series of terrestrial images from either a single fixed camera or pair-wise cameras, the latter to obtain redundant and additional information. The time series are processed to detect the areas in which the Kinematic behavior is homogeneous. The slope properties, such as the sliding volume and the thickness of the moving mass, are part of the analysis results to obtain an overview which is as complete as possible. This work is presented around the analysis of four landslides located in the French Alps. It is part of a CIFRE/ANRT agreement between the SAGE Society - Société Alpine de Géotechnique (Gières, France) and the IPGS - Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
42

Buiatti, Marco. "Correlations à longue distance dans les séries temporelles biologiques." Paris 6, 2006. http://www.theses.fr/2006PA066242.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs systèmes biologiques montrent des corrélations a à longue distancedistance, i. E. C-à-d des corrélations qui décadent déclinent très lentement dans le temps et l’espace dans l'espace. Le but de cette thèse est celui de contribuer à l'explication de ce problème phénomène à la fois en explorant les relations entre la fonction du système et sa structure statistique a longue distance, et en étudiant l’adaptation des systèmes biologiques à un environnement caractérisé par des corrélations a longue distance. La première étude explore montre comment une tache de raisonnement module les corrélations temporelles àa longue distance de l'activité cérébrale, associée enregistrée par l'EEG, sont modulées par une tache de raisonnement. Dans la deuxième étude, nous étudions la structure d’ordre élevé des corrélations a à longue
A large number of biological systems exhibit scale-free behaviour of one or more variables. Scale-free behaviour reflects a tendency of complex systems to develop long-range correlations, i. E. Correlations that decay very slowly in time and extend over very large distances in space. However, the properties and the functional role of long-range correlations in biological systems are still poorly understood. The aim of this thesis is to shed new light into this issue with three studies in three different biological domains, both by exploring the relationship between the function of the system and its long-range statistical structure, and by investigating how biological systems adapt to a long-range correlated environment. The first study explores how a reasoning task modulates the temporal long-range correlations of the associated brain electrical activity as recorded by EEG. The task consists in searching a rule in triplets of numbers, and hypothesis are tested on the base of a performance feedback. We demonstrate that negative feedback elicits significantly stronger long-range correlations than positive feedback in wide brain areas. In the second study, we develop a high-order measure to investigate the long-range statistical structure of DNA sequences of prokaryotes. We test the hypothesis that prokaryotic DNA statistics is described by a model consisting in the superposition of a long-range correlated component and random noise. We show that the model fits the long-range statistics of several prokaryotic DNA sequences, and suggest a functional explanation of the result. The main aim of the third study was to investigate how neurons in the retina adapts to the wide range, long-range correlated temporal statistics of natural scenes. Adaptation is modelled as the cascade of the two major mechanisms of adaptation in the retina - light adaptation and contrast adaptation - predicting the mean and the variance of the input from the past input values. By testing the model on time series of natural light intensities, we show that such cascade is indeed sufficient to adapt to the natural stimulus by removing most of its long-range correlations, while no linear filtering alone achieves the same goal. This result suggests that contrast adaptation has efficiently developed to exploit the long-range temporal correlations of natural scenes in an optimal way
43

Gueguen, Lionel. "Extraction d'information et compression conjointes de Séries Temporelles d'Images Satellitaires." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003146.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d'Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires.
44

Partouty, S. "Interprétation des séries temporelles altimétriques sur la calotte polaire Antarctique." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-01018319.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est de mieux comprendre les variations temporelles des signaux altimétriques sur la calotte polaire Antarctique. Nous exploitons les observations effectuées par l'altimètre à bord d'ENVISAT entre janvier 2003 et décembre 2007. Ces observations s'étendent jusqu'à 82°Sud, ce qui permet de couvrir environ 80% du continent Antarctique. Pendant la période d'étude deux fréquences sont exploitables (Bande S, soit 3.2GHz, et Bande Ku soit 13.6GHz), ce qui permet de mieux cerner la sensibilité de la mesure aux variations d'état du manteau neigeux couvrant la calotte polaire Antarctique. L'état de la surface neigeuse en Antarctique varie dans l'espace comme dans le temps, en réponse aux événements météorologiques de proche surface, et tout particulièrement les vents. Selon l'état de la surface, l'onde électromagnétique émise par l'altimètre va pénétrer plus ou moins profondément dans le manteau neigeux, modifiant la forme de l'écho enregistré lorsque cette onde retourne au satellite. La précision des mesures de topographie de la calotte polaire dépend alors de la connaissance des propriétés de surface, ainsi que de la compréhension des mécanismes contrôlant l'interaction des ondes électromagnétiques avec la surface neigeuse. Nous étudions dans cette thèse comment la forme de l'écho altimétrique évolue lorsque les conditions de vent à la surface de la calotte polaire changent, et affectent l'état de la surface. Nous commençons par étudier la variabilité spatiale et temporelle des observations altimétriques d'une part, et des intensités de vent d'autre part (réanalyses des modèles atmosphériques globaux NCEP/NCAR, NCEP/DOE et ERA-Interim). Nous en identifions les échelles de variations spatiales et temporelles caractéristiques. Cela nous permet de concevoir les traitements à appliquer afin d'homogénéiser les différentes sources d'information. Nous constatons que les variations de nos séries temporelles décrivent essentiellement un signal annuel, toujours maximal en été austral pour les variations de vents. En revanche les variations annuelles de la forme d'onde ne sont pas homogènes à l'échelle de la calotte polaire, mais mettent en évidence deux régions principales. Nous utilisons ensuite les propriétés de la forme d'onde altimétrique, et leurs variations temporelles pour reconstruire les variations d'intensité de vents. Nous obtenons de très bonnes cohérences, ce qui atteste la sensibilité de la mesure altimétrique aux changements d'état de la surface induits par les variations de vent. Nous utilisons en dernier lieu un modèle régional (MAR/LGGE), qui prend en compte les interactions des vents avec l'état de la surface avec une résolution spatiale plus fine. Cela nous permet de confirmer les résultats déjà obtenus, et de mettre en valeur les spécificités du modèle MAR. Les méthodes mises en jeu sont empiriques et les résutats obtenus qualitatifs. Nous avons toutefois identifié deux régions majeures, réagissant différemment aux variations de vents, que nous expliquons par l'existence de structures de surface particulières, et un impact différent des vents sur l'état de la surface.
45

Khiali, Lynda. "Fouille de données à partir de séries temporelles d’images satellites." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS046/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les images satellites représentent de nos jours une source d’information incontournable. Elles sont exploitées dans diverses applications, telles que : la gestion des risques, l’aménagent des territoires, la cartographie du sol ainsi qu’une multitude d’autre taches. Nous exploitons dans cette thèse les Séries Temporelles d’Images Satellites (STIS) pour le suivi des évolutions des habitats naturels et semi-naturels. L’objectif est d’identifier, organiser et mettre en évidence des patrons d’évolution caractéristiques de ces zones.Nous proposons des méthodes d’analyse de STIS orientée objets, en opposition aux approches par pixel, qui exploitent des images satellites segmentées. Nous identifions d’abord les profils d’évolution des objets de la série. Ensuite, nous analysons ces profils en utilisant des méthodes d’apprentissage automatique. Afin d’identifier les profils d’évolution, nous explorons les objets de la série pour déterminer un sous-ensemble d’objets d’intérêt (entités spatio-temporelles/objets de référence). L’évolution de ces entités spatio-temporelles est ensuite illustrée en utilisant des graphes d’évolution.Afin d’analyser les graphes d’évolution, nous avons proposé trois contributions. La première contribution explore des STIS annuelles. Elle permet d’analyser les graphes d’évolution en utilisant des algorithmes de clustering, afin de regrouper les entités spatio-temporelles évoluant similairement. Dans la deuxième contribution, nous proposons une méthode d’analyse pluri-annuelle et multi-site. Nous explorons plusieurs sites d’étude qui sont décrits par des STIS pluri-annuelles. Nous utilisons des algorithmes de clustering afin d’identifier des similarités intra et inter-site. Dans la troisième contribution, nous introduisons une méthode d’analyse semi-supervisée basée sur du clustering par contraintes. Nous proposons une méthode de sélection de contraintes. Ces contraintes sont utilisées pour guider le processus de clustering et adapter le partitionnement aux besoins de l’utilisateur.Nous avons évalué nos travaux sur différents sites d’étude. Les résultats obtenus ont permis d’identifier des profils d’évolution types sur chaque site d’étude. En outre, nous avons aussi identifié des évolutions caractéristiques communes à plusieurs sites. Par ailleurs, la sélection de contraintes pour l’apprentissage semi-supervisé a permis d’identifier des entités profitables à l’algorithme de clustering. Ainsi, les partitionnements obtenus en utilisant l’apprentissage non supervisé ont été améliorés et adaptés aux besoins de l’utilisateur
Nowadays, remotely sensed images constitute a rich source of information that can be leveraged to support several applications including risk prevention, land use planning, land cover classification and many other several tasks. In this thesis, Satellite Image Time Series (SITS) are analysed to depict the dynamic of natural and semi-natural habitats. The objective is to identify, organize and highlight the evolution patterns of these areas.We introduce an object-oriented method to analyse SITS that consider segmented satellites images. Firstly, we identify the evolution profiles of the objects in the time series. Then, we analyse these profiles using machine learning methods. To identify the evolution profiles, we explore all the objects to select a subset of objects (spatio-temporal entities/reference objects) to be tracked. The evolution of the selected spatio-temporal entities is described using evolution graphs.To analyse these evolution graphs, we introduced three contributions. The first contribution explores annual SITS. It analyses the evolution graphs using clustering algorithms, to identify similar evolutions among the spatio-temporal entities. In the second contribution, we perform a multi-annual cross-site analysis. We consider several study areas described by multi-annual SITS. We use the clustering algorithms to identify intra and inter-site similarities. In the third contribution, we introduce à semi-supervised method based on constrained clustering. We propose a method to select the constraints that will be used to guide the clustering and adapt the results to the user needs.Our contributions were evaluated on several study areas. The experimental results allow to pinpoint relevant landscape evolutions in each study sites. We also identify the common evolutions among the different sites. In addition, the constraint selection method proposed in the constrained clustering allows to identify relevant entities. Thus, the results obtained using the unsupervised learning were improved and adapted to meet the user needs
46

Parouty, Soazig. "Interprétation des séries temporelles altimétriques sur la calotte polaire Antartique." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/900/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est de mieux comprendre les variations temporelles des signaux altimétriques sur la calotte polaire Antarctique. Nous exploitons les observations effectuées par l'altimètre à bord d'ENVISAT entre janvier 2003 et décembre 2007. Ces observations s'étendent jusqu'à 82°Sud, ce qui permet de couvrir environ 80% du continent Antarctique. Pendant la période d'étude deux fréquences sont exploitables (Bande S, soit 3. 2GHz, et Bande Ku soit 13. 6GHz), ce qui permet de mieux cerner la sensibilité de la mesure aux variations d'état du manteau neigeux couvrant la calotte polaire Antarctique. L'état de la surface neigeuse en Antarctique varie dans l'espace comme dans le temps, en réponse aux événements météorologiques de proche surface, et tout particulièrement les vents. Selon l'état de la surface, l'onde électromagnétique émise par l'altimètre va pénétrer plus ou moins profondément dans le manteau neigeux, modifiant la forme de l'écho enregistré lorsque cette onde retourne au satellite. La précision des mesures de topographie de la calotte polaire dépend alors de la connaissance des propriétés de surface, ainsi que de la compréhension des mécanismes contrôlant l'interaction des ondes électromagnétiques avec la surface neigeuse. Nous étudions dans cette thèse comment la forme de l'écho altimétrique évolue lorsque les conditions de vent à la surface de la calotte polaire changent, et affectent l'état de la surface. Nous commençons par étudier la variabilité spatiale et temporelle des observations altimétriques d'une part, et des intensités de vent d'autre part (réanalyses des modèles atmosphériques globaux NCEP/NCAR, NCEP/DOE et ERA-Interim). Nous en identifions les échelles de variations spatiales et temporelles caractéristiques. Cela nous permet de concevoir les traitements à appliquer afin d'homogénéiser les différentes sources d'information. Nous constatons que les variations de nos séries temporelles décrivent essentiellement un signal annuel, toujours maximal en été austral pour les variations de vents. En revanche les variations annuelles de la forme d'onde ne sont pas homogènes à l'échelle de la calotte polaire, mais mettent en évidence deux régions principales. Nous utilisons ensuite les propriétés de la forme d'onde altimétrique, et leurs variations temporelles pour reconstruire les variations d'intensité de vents
This work aims at improving our understanding of the altimetric time series acquired over the Antarctic Ice Sheet. Dual frequency data (S Band - 3. 2GHz and Ku Band - 13. 6GHz) from thealtimeter onboard the ENVISAT satellite are used, during a five year time period from january2003 until december 2007. These data cover around 80% of the surface of the Antarctic continent,up to 82°S. Having data in two different frequencies is valuable when it comes to better estimatethe altimeter sensitivity regarding snow surface property changes. Over the Antarctic ice sheet, snow surface changes with respect to space and time, beingaffected by meteorological conditions close to the surface, and especially winds. The altimetricwave penetrates more or less deeply beneath the surface, depending on snow surface and subsurfaceproperties. As a result, when the wave comes back to the satellite, the recorded signal, namedwaveform, is more or less distorted. The accuracy of the ice sheet topographic changes computedthanks to satellite altimetric techniques depends on our knowledge of the processes inducing thisdistortion. The purpose of the present work is to better understand the effect of changing windconditions on altimetric data. Winds in Antarctica are indeed famous for their strength and theirimpact on the snow surface state. First, spatial and temporal variability of the altimetric data on the one hand, and of wind speedreanalysis fields (from ERA-Interim, NCEP/NCAR and NCEP/DOE projects) on the other handare studied. We estimate spatial and temporal typical length scales for all datasets. As a result, weare able to smooth the data, so that all datasets have the same spatial and temporal caractericticlength scales. Furthermore, we note that our time series are well described by an annual signal. This annual cycle shows that whereas wind speed would always be maximum in austral winter,altimetric seasonal cycles have very different behaviors depending on the location. .
47

Goldfarb, Bernard. "Etude structurelle des séries temporelles : les moyens de l'analyse spectrale." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
48

Esstafa, Youssef. "Modèles de séries temporelles à mémoire longue avec innovations dépendantes." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous considérons, dans un premier temps, le problème de l'analyse statistique des modèles FARIMA (Fractionally AutoRegressive Integrated Moving-Average) induits par un bruit blanc non corrélé mais qui peut contenir des dépendances non linéaires très générales. Ces modèles sont appelés FARIMA faibles et permettent de modéliser des processus à mémoire longue présentant des dynamiques non linéaires, de structures souvent non-identifiées, très générales. Relâcher l'hypothèse d'indépendance sur le terme d'erreur, une hypothèse habituellement imposée dans la littérature, permet aux modèles FARIMA faibles d'élargir considérablement leurs champs d'application en couvrant une large classe de processus à mémoire longue non linéaires. Les modèles FARIMA faibles sont denses dans l'ensemble des processus stationnaires purement non déterministes, la classe formée par ces modèles englobe donc celle des processus FARIMA avec un bruit indépendant et identiquement distribué (iid). Nous appelons par la suite FARIMA forts les modèles dans lesquels le terme d'erreur est supposé être un bruit iid.Nous établissons les procédures d'estimation et de validation des modèles FARIMA faibles. Nous montrons, sous des hypothèses faibles de régularités sur le bruit, que l'estimateur des moindres carrés des paramètres des modèles FARIMA(p,d,q) faibles est fortement convergent et asymptotiquement normal. La matrice de variance asymptotique de l'estimateur des moindres carrés des modèles FARIMA(p,d,q) faibles est de la forme "sandwich". Cette matrice peut être très différente de la variance asymptotique obtenue dans le cas fort (i.e. dans le cas où le bruit est supposé iid). Nous proposons, par deux méthodes différentes, un estimateur convergent de cette matrice. Une méthode alternative basée sur une approche d'auto-normalisation est également proposée pour construire des intervalles de confiance des paramètres des modèles FARIMA(p,d,q) faibles. Cette technique nous permet de contourner le problème de l'estimation de la matrice de variance asymptotique de l'estimateur des moindres carrés.Nous accordons ensuite une attention particulière au problème de la validation des modèles FARIMA(p,d,q) faibles. Nous montrons que les autocorrélations résiduelles ont une distribution asymptotique normale de matrice de covariance différente de celle obtenue dans le cadre des FARIMA forts. Cela nous permet de déduire la loi asymptotique exacte des statistiques portmanteau et de proposer ainsi des versions modifiées des tests portmanteau standards de Box-Pierce et Ljung-Box. Il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un khi-deux lorsque le terme d'erreur est supposé iid. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de khi-deux. Elle peut être très différente de l'approximation khi-deux usuelle du cas fort. Nous adoptons la même approche d'auto-normalisation utilisée pour la construction des intervalles de confiance des paramètres des modèles FARIMA faibles pour tester l'adéquation des modèles FARIMA(p,d,q) faibles. Cette méthode a l'avantage de contourner le problème de l'estimation de la matrice de variance asymptotique du vecteur joint de l'estimateur des moindres carrés et des autocovariances empiriques du bruit.Dans un second temps, nous traitons dans cette thèse le problème de l'estimation des modèles autorégressifs d'ordre 1 induits par un bruit gaussien fractionnaire d'indice de Hurst H supposé connu. Nous étudions, plus précisément, la convergence et la normalité asymptotique de l'estimateur des moindres carrés généralisés du paramètre autorégressif de ces modèles
We first consider, in this thesis, the problem of statistical analysis of FARIMA (Fractionally AutoRegressive Integrated Moving-Average) models endowed with uncorrelated but non-independent error terms. These models are called weak FARIMA and can be used to fit long-memory processes with general nonlinear dynamics. Relaxing the independence assumption on the noise, which is a standard assumption usually imposed in the literature, allows weak FARIMA models to cover a large class of nonlinear long-memory processes. The weak FARIMA models are dense in the set of purely non-deterministic stationary processes, the class of these models encompasses that of FARIMA processes with an independent and identically distributed noise (iid). We call thereafter strong FARIMA models the models in which the error term is assumed to be an iid innovations.We establish procedures for estimating and validating weak FARIMA models. We show, under weak assumptions on the noise, that the least squares estimator of the parameters of weak FARIMA(p,d,q) models is strongly consistent and asymptotically normal. The asymptotic variance matrix of the least squares estimator of weak FARIMA(p,d,q) models has the "sandwich" form. This matrix can be very different from the asymptotic variance obtained in the strong case (i.e. in the case where the noise is assumed to be iid). We propose, by two different methods, a convergent estimator of this matrix. An alternative method based on a self-normalization approach is also proposed to construct confidence intervals for the parameters of weak FARIMA(p,d,q) models.We then pay particular attention to the problem of validation of weak FARIMA(p,d,q) models. We show that the residual autocorrelations have a normal asymptotic distribution with a covariance matrix different from that one obtained in the strong FARIMA case. This allows us to deduce the exact asymptotic distribution of portmanteau statistics and thus to propose modified versions of portmanteau tests. It is well known that the asymptotic distribution of portmanteau tests is correctly approximated by a chi-squared distribution when the error term is assumed to be iid. In the general case, we show that this asymptotic distribution is a mixture of chi-squared distributions. It can be very different from the usual chi-squared approximation of the strong case. We adopt the same self-normalization approach used for constructing the confidence intervals of weak FARIMA model parameters to test the adequacy of weak FARIMA(p,d,q) models. This method has the advantage of avoiding the problem of estimating the asymptotic variance matrix of the joint vector of the least squares estimator and the empirical autocovariances of the noise.Secondly, we deal in this thesis with the problem of estimating autoregressive models of order 1 endowed with fractional Gaussian noise when the Hurst parameter H is assumed to be known. We study, more precisely, the convergence and the asymptotic normality of the generalized least squares estimator of the autoregressive parameter of these models
49

Gueguen, Lionel. "Extraction d'information et compression conjointes des séries temporelles d'images satellitaires." Paris, ENST, 2007. http://www.theses.fr/2007ENST0025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d’Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires
Nowadays, new data which contain interesting information can be produced : the Satellite Image Time Series which are observations of Earth’s surface evolution. These series constitute huge data volume and contain complex types of information. For example, numerous spatio-temporal events, such as harvest or urban area expansion, can be observed in these series and serve for remote surveillance. In this framework, this thesis deals with the information extraction from Satellite Image Time Series automatically in order to help spatio-temporal events comprehension and the compression in order to reduce storing space. Thus, this work aims to provide methodologies which extract information and compress jointly these series. This joint processing provides a compact representation which contains an index of the informational content. First, the concept of joint extraction and compression is described where the information extraction is grasped as a lossy compression of the information. Secondly, two methodologies are developed based on the previous concept. The first one provides an informational content index based on the Information Bottleneck principle. The second one provides a code or a compact representation which integrates an informational content index. Finally, both methodologies are validated and compared with synthetic data, then are put into practice successfully with Satellite Image Time Series
50

Hili, Ouagnina. "Contribution à l'estimation des modèles de séries temporelles non linéaires." Université Louis Pasteur (Strasbourg) (1971-2008), 1995. http://www.theses.fr/1995STR13169.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de la these est d'effectuer l'inference statistique d'une classe generale de modeles de series temporelles non lineaires. Notre contribution consiste d'abord a determiner des conditions assurant l'existence d'une loi stationnaire, l'existence des moments de cette loi stationnaire et la forte melangeance de tels modeles. Nous etablissons ensuite les proprietes asymptotiques de l'estimateur du minimum de distance d'hellinger du parametre d'interet. La robustesse de cet estimateur est egalement envisagee. Nous examinons aussi, via la methode des moindres carres, les proprietes asymptotiques des estimateurs des coefficients des modeles autoregressifs a seuils

To the bibliography