Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Regroupement de séries temporelles.

Dissertationen zum Thema „Regroupement de séries temporelles“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Regroupement de séries temporelles" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Gagnon, Jean-François. „Prévision humaine de séries temporelles“. Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25243.

Der volle Inhalt der Quelle
Annotation:
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hmamouche, Youssef. „Prédiction des séries temporelles larges“. Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Hugueney, Bernard. „Représentations symboliques de longues séries temporelles“. Paris 6, 2003. http://www.theses.fr/2003PA066161.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nowakowski, Samuel. „Détection de défauts dans les séries temporelles“. Nancy 1, 1989. http://www.theses.fr/1989NAN10074.

Der volle Inhalt der Quelle
Annotation:
Utilisation des calculs de distances pour résoudre des problèmes rencontrés pour les tests de détection de changements tels que le test du rapport de vraisemblance généralisé. Expérimentation de la méthode de la variable instrumentale
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Haykal, Vanessa. „Modélisation des séries temporelles par apprentissage profond“. Thesis, Tours, 2019. http://www.theses.fr/2019TOUR4019.

Der volle Inhalt der Quelle
Annotation:
La prévision des séries temporelles est un problème qui est traité depuis de nombreuses années. Dans cette thèse, on s’est intéressé aux méthodes issues de l’apprentissage profond. Il est bien connu que si les relations entre les données sont temporelles, il est difficile de les analyser et de les prévoir avec précision en raison des tendances non linéaires et du bruit présent, spécifiquement pour les séries financières et électriques. A partir de ce contexte, nous proposons une nouvelle architecture de réduction de bruit qui modélise des séries d’erreurs récursives pour améliorer les prévisions. L’apprentissage hybride fusionne simultanément un réseau de neurones convolutifs (CNN) et un réseau récurrent à mémoire long et court termes (LSTM). Ce modèle se distingue par sa capacité à capturer globalement différentes propriétés telles que les caractéristiques locales du signal, d’apprendre les dépendances non linéaires à long terme et de s’adapter également à une résistance élevée au bruit. La seconde contribution concerne les limitations des approches globales en raison des changements de régimes dynamiques dans le signal. Nous présentons donc une modification locale non-supervisée de notre architecture précédente afin d’ajuster les résultats en pilotant le modèle par un modèle de Markov caché (HMM). Enfin, on s’est également intéressé aux techniques de multi-résolutions pour améliorer les performances des couches convolutives, notamment par la méthode de décomposition en mode variationnel (VMD)
Time series prediction is a problem that has been addressed for many years. In this thesis, we have been interested in methods resulting from deep learning. It is well known that if the relationships between the data are temporal, it is difficult to analyze and predict accurately due to non-linear trends and the existence of noise specifically in the financial and electrical series. From this context, we propose a new hybrid noise reduction architecture that models the recursive error series to improve predictions. The learning process fusessimultaneouslyaconvolutionalneuralnetwork(CNN)andarecurrentlongshort-term memory network (LSTM). This model is distinguished by its ability to capture globally a variety of hybrid properties, where it is able to extract local signal features, to learn long-term and non-linear dependencies, and to have a high noise resistance. The second contribution concerns the limitations of the global approaches because of the dynamic switching regimes in the signal. We present a local unsupervised modification with our previous architecture in order to adjust the results by adapting the Hidden Markov Model (HMM). Finally, we were also interested in multi-resolution techniques to improve the performance of the convolutional layers, notably by using the variational mode decomposition method (VMD)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Jabbari, Ali. „Encodage visuel composite pour les séries temporelles“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM035/document.

Der volle Inhalt der Quelle
Annotation:
Les séries temporelles sont l'un des types de données les plus courants dans divers domaines scientifiques, industriels et financiers. Selon le contexte, l'analyse des séries temporelles est effectuée à diverses fins: prévision, estimation, classification et détection des tendances et des événements. Grâce aux capacités exceptionnelles de la perception visuelle humaine, la visualisation reste l'un des outils les plus puissants pour l'analyse de données, en particulier pour les données temporelles. Avec la croissance de volume et de la complexité des jeux de données, de nouvelles techniques de visualisation sont clairement nécessaires pour améliorer l'analyse des données. Elles visent à faciliter l'analyse visuelle dans le cas où des situations ou des tâches sont bien spécifiées, ou à favoriser l'analyse exploratoire non guidée.La visualisation est basée sur le "mapping visuel", un processus qui consiste à associer les valeurs de données aux canaux visuels comme la position, la taille et la couleur des éléments graphiques. A cet égard, la forme la plus connue de visualisation des séries temporelles, c'est-à-dire les graphiques linéaires ("line charts" en anglais), consiste en une mise en correspondance des valeurs de données avec la position verticale de la ligne. Cependant, un seul mapping visuel ne convient pas à toutes les situations et objectifs analytiques.Notre but est d'introduire des alternatives au mapping visuel conventionnel et de trouver des situations dans lesquelles, la nouvelle approche compense la simplicité et la familiarité des techniques existantes. Nous présentons une revue de l'état de l'art sur la visualisation des séries chronologiques, puis nous nous concentrons sur les approches existantes du mapping visuel.Ensuite, nous présentons nos contributions. Notre première contribution est une étude systématique d'un «mapping visuelle composite» qui consiste à utiliser des combinaisons de canaux visuels pour communiquer différentes facettes d'une série temporelle. Au moyen de plusieurs expériences avec des utilisateurs, nous comparons les nouveaux mappings visuels à une technique de référence existante et nous mesurons la vitesse et la précision des utilisateurs dans différentes tâches analytiques. Nos résultats montrent que les nouvelles conceptions visuelles conduisent à des performances analytiques proches de celles des techniques existantes sans être inutilement complexes ou nécessiter un entraînement. De plus, certains mappings proposés surpassent les techniques existantes dans les situations de contraintes spatiales. L'efficacité spatiale est d'une grande importance pour la visualisation simultanée de grands volumes de données ou de visualisation sur de petits écrans. Les deux scénarios font partie des défis actuels de la visualisation de l'information
Time series are one of the most common types of recorded data in various scientific, industrial, and financial domains. Depending on the context, time series analysis are used for a variety of purposes: forecasting, estimation, classification, and trend and event detection. Thanks to the outstanding capabilities of human visual perception, visualization remains one of the most powerful tools for data analysis, particularly for time series. With the increase in data sets' volume and complexity, new visualization techniques are clearly needed to improve data analysis. They aim to facilitate visual analysis in specified situations, tasks, or for unguided exploratory analysis.Visualization is based upon visual mapping, which consists in association of data values to visual channels, e.g. position, size, and color of the graphical elements. In this regard, the most familiar form of time series visualization, i.e. line charts, consists in a mapping of data values to the vertical position of the line. However, a single visual mapping is not suitable for all situations and analytical objectives.Our goal is to introduce alternatives to the conventional visual mapping and find situations in which, the new approach compensate for the simplicity and familiarity of the existing techniques. We present a review of the existing literature on time series visualization and then, we focus on the existing approaches to visual mapping.Next, we present our contributions. Our first contribution is a systematic study of a "composite" visual mapping which consists in using combinations of visual channels to communicate different facets of a time series. By means of several user studies, we compare our new visual mappings with an existing reference technique and we measure users' speed and accuracy in different analytical tasks. Our results show that the new visual designs lead to analytical performances close to those of the existing techniques without being unnecessarily complex or requiring training. Also, some of the proposed mappings outperform the existing techniques in space constraint situations. Space efficiency is of great importance to simultaneous visualization of large volumes of data or visualization on small screens. Both scenarios are among the current challenges in information visualization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Assaad, Charles. „Découvertes de relations causales entre séries temporelles“. Electronic Thesis or Diss., Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALM019.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour but d'expliquer les concepts et principes centraux de la causalité. Nous nous intéresserons particulièrement à la découverte causale à partir de séries temporelles, domaine émergent aujourd’hui avec, notamment, les données industrielles de capteurs. Dans les deux premiers chapitres, nous présentons les concepts puis les algorithmes existants dans ce domaine. Ensuite, nous présentons une nouvelle approche qui infère un graphe récapitulatif du système causal sous-jacent aux séries temporelles tout en assouplissant le cadre idéalisé de fréquences d'échantillonnage égaux, tout en discutant ses hypothèses et sa validité. La principale nouveauté dans cette méthode réside dans l'introduction de la mesure d'information mutuelle temporelle causale qui permet de détecter l'indépendance et l'indépendance conditionnelle entre deux séries temporelles, et l’établissement d'un lien apparent entre l'entropie et le principe d'augmentation de la probabilité d'un effet sachant sa cause, lien qui peut être utilisé pour construire de nouvelles règles pour l'orientation de la direction de la causalité. De plus, à travers le développement de la première méthode, nous proposons plusieurs extensions qui permettent de gérer les causes communes cachées, de déduire un graphe causal temporel à partir d'un graphe récapitulatif et de pouvoir s’adapter aux données ordonnées (pas nécessairement temporelles). Puis, nous nous concentrons sur la découverte de relations causales à partir d'une distribution statistique qui n'est pas entièrement fidèle au graphe causal réel et sur la distinction entre une cause commune et une cause intermédiaire même, en absence d'indicateur de temps. L'aspect clé de notre réponse à ce problème est le recours au principe du bruit additif pour déduire un supergraphe dirigé contenant le graphe causal. Pour converger vers le graphe causal, nous utilisons une nouvelle mesure appelée l'entropie de causalité temporelle qui élague pour chaque nœud du supergraphe dirigé, les parents qui en sont conditionnellement indépendants. En outre, nous explorons des extensions complémentaires de notre deuxième méthode qui impliquent une stratégie par paires et une stratégie multitâche. Nous effectuons une comparaison expérimentale approfondie des algorithmes proposés sur des ensembles de données à la fois synthétiques et réels et nous montrons leurs performances pratiques prometteuses: gain en complexité temporelle tout en préservant la précision
This thesis aims to give a broad coverage of central concepts and principles of causation and in particular the ones involved in the emerging approaches to causal discovery from time series.After reviewing concepts and algorithms, we first present a new approach that infer a summary graph of the causal system underlying the observational time series while relaxing the idealized setting of equal sampling rates and discuss the assumptions underlying its validity. The gist of our proposal lies in the introduction of the causal temporal mutual information measure that can detect the independence and the conditional independence between two time series, and in making an apparent connection between entropy and the probability raising principle that can be used for building new rules for the orientation of the direction of causation. Moreover, through the development of this base method, we propose several extensions, namely to handle hidden confounders, to infer a window causal graph given a summary graph, and to consider sequences instead of time series.Secondly, we focus on the discovery of causal relations from a statistical distribution that is not entirely faithful to the real causal graph and on distinguishing a common cause from an intermediate cause even in the absence of a time indicator. The key aspect of our answer to this problem is the reliance on the additive noise principle to infer a directed supergraph that contains the causal graph. To converge toward the causal graph, we use in a second step a new measure called the temporal causation entropy that prunes for each node of the directed supergraph, the parents that are conditionally independent of their child. Furthermore, we explore complementary extensions of our second base method that involve a pairwise strategy which reduces through multitask learning and a denoising technique, the number of functions that need to be estimated. We perform an extensive experimental comparison of the proposed algorithms on both synthetic and real datasets and demonstrate their promising practical performance: gaining in time complexity while preserving accuracy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Claeys, Emmanuelle. „Clusterisation incrémentale, multicritères de données hétérogènes pour la personnalisation d’expérience utilisateur“. Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD039.

Der volle Inhalt der Quelle
Annotation:
Dans de nombreux domaines (santé, vente en ligne, …) concevoir ex nihilo une solution optimale répondant à un problème défini (trouver un protocole augmentant le taux de guérison, concevoir une page Web favorisant l'achat d'un ou plusieurs produits, ...) est souvent très difficile voire impossible. Face à cette difficulté, les concepteurs (médecins, web designers, ingénieurs de production,...) travaillent souvent de façon incrémentale par des améliorations successives d'une solution existante. Néanmoins, définir les modifications les plus pertinentes reste un problème difficile. Pour tenter d'y répondre, une solution adoptée de plus en plus fréquemment consiste à comparer concrètement différentes alternatives (appelées aussi variations) afin de déterminer celle(s) répondant le mieux au problème via un A/B Test. L'idée est de mettre en oeuvre réellement ces alternatives et de comparer les résultats obtenus, c'est-à-dire les gains respectifs obtenus par chacune des variations. Pour identifier la variation optimale le plus rapidement possible, de nombreuses méthodes de test utilisent une stratégie d'allocation dynamique automatisée. Le principe est d'allouer le plus rapidement possible et automatiquement, les sujets testés à la variation la plus performante, par un apprentissage par renforcement. Parmi les méthodes possibles, il existe en théorie des probabilités les méthodes de bandit manchot. Ces méthodes ont montré leur intérêt en pratique mais également des limites, dont en particulier une temps de latence (c'est-à-dire un délai entre l'arrivée d'un sujet à tester et son allocation) trop important, un déficit d'explicabilité des choix et la non-intégration d’un contexte évolutif décrivant le comportement du sujet avant d’être testé. L'objectif global de cette thèse est de proposer une méthode générique d'A/B test permettant une allocation dynamique en temps réel capable de prendre en compte les caractéristiques des sujets, qu'elles soient temporelles ou non, et interprétable a posteriori
In many activity sectors (health, online sales,...) designing from scratch an optimal solution for a defined problem (finding a protocol to increase the cure rate, designing a web page to promote the purchase of one or more products,...) is often very difficult or even impossible. In order to face this difficulty, designers (doctors, web designers, production engineers,...) often work incrementally by successive improvements of an existing solution. However, defining the most relevant changes remains a difficult problem. Therefore, a solution adopted more and more frequently is to compare constructively different alternatives (also called variations) in order to determine the best one by an A/B Test. The idea is to implement these alternatives and compare the results obtained, i.e. the respective rewards obtained by each variation. To identify the optimal variation in the shortest possible time, many test methods use an automated dynamic allocation strategy. Its allocate the tested subjects quickly and automatically to the most efficient variation, through a learning reinforcement algorithms (as one-armed bandit methods). These methods have shown their interest in practice but also limitations, including in particular a latency time (i.e. a delay between the arrival of a subject to be tested and its allocation) too long, a lack of explicitness of choices and the integration of an evolving context describing the subject's behaviour before being tested. The overall objective of this thesis is to propose a understable generic A/B test method allowing a dynamic real-time allocation which take into account the temporals static subjects’s characteristics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Frambourg, Cédric. „Apprentissage d'appariements pour la discrimination de séries temporelles“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00948989.

Der volle Inhalt der Quelle
Annotation:
Il n'est pas rare dans les applications que les profils globaux des séries temporelles soient dissimilaires au sein d'une même classe ou, inversement, exhibent des dynamiques similaires pour des classes différentes. L'objectif de ce travail consiste à discriminer de telles structures de séries temporelles complexes. Nous proposons une nouvelle approche d'apprentissage d'appariements discriminants visant à connecter les séries temporelles selon les caractéristiques partagées dans les classes et différentielles entre les classes. Cette approche est fondée sur un critère de variance/covariance pour la pénalisation des liens entre les observations en fonction de la variabilité intra et inter classes induite. Pour ce faire, l'expression de la variance/covariance classique est étendue à un ensemble de séries temporelles, puis à des classes de séries. Nous montrons ensuite comment les appariements appris peuvent être utilisés pour la définition d'une métrique locale, pondérée, restreignant la comparaison de séries à leurs attributs discriminants. Les expérimentations menées soulignent la capacité des appariements appris à révéler des signatures fines discriminantes et montrent l'efficacité de la métrique apprise pour la classification de séries temporelles complexes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

El, Ghini Ahmed. „Contribution à l'identification de modèles de séries temporelles“. Lille 3, 2008. http://www.theses.fr/2008LIL30017.

Der volle Inhalt der Quelle
Annotation:
Cette thèse de doctorat comporte deux parties traitant des problèmes d'identification et de sélection en économétrie. Nous étudions les sujets suivants : (1) le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation, d'autocorrélation partielle, d'autocorrélation inverse et d'autocorrélation partielle inverse ; (2) l'estimation de la fonction d'autocorrélation inverse dans le cadre des séries temporelles non linéaires. Dans une première partie, nous considérons le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation susmentionnées. Nous construisons des tests statistiques basés sur des estimateurs empiriques de ces fonctions puis nous étudions leur distribution asymptotique. En utilisant l'approche de Bahadur et de Pitman, nous comparons la performance de ces fonctions d'autocorrélation dans la détection de l'ordre d'une moyenne mobile et d'un modèle autorégressif. Par la suite, nous nous intéressons à l'identification du processus inverse d'un modèle ARMA et à l'étude des ses propriétés probabilistes. Enfin, nous caractérisons la réversibilité temporelle à l'aide des processus dual et inverse. La deuxième partie est consacrée à l'estimation de la fonction d'autocorrélation inverse dans le cadre des processus non linéaires. Sous certaines conditions de régularité, nous étudions les propriétés asymptotiques des autocorrélations inverses empiriques pour un processus stationnaire et fortement mélangeant. Nous obtenons la convergence et la normalité asymptotique des estimateurs. Par la suite, nous considérons le cas d'un processus linéaire généré par un bruit blanc de type GARCH. Nous obtenons une formule explicite pour la matrice d'autocovariance asymptotique. A l'aide d'exemples, nous montrons que la formule standard de cette matrice n'est pas valable lorsque le processus générateur des données est non linéaire. Enfin, nous appliquons les résultats précédents pour montrer la normalité asymptotique des estimateurs des paramètres d'une moyenne mobile faible. Nos résultats sont illustrés par des expériences
This PhD dissertation consists of two parts dealing with the probelms of identification and selection in econometrics. Two mains topics are considered : (1) time series model identification by using (inverse) autocorrelation and (inverse) partial autocorrelation functions ; (2) estimation of inverse autocorrelation function in the framework of nonlinear tima series. The two parts are summarized below. In the first part of this work, we consider time series model identification y using (inverse) autocorrelation and (inverse) partial autocorrelation functions. We construct statistical tests based on estimators of these functions and establish their asymptotic distribution. Using Bahadur and Pitman approaches, we compare the performance of (inverse) autocorelations and (inverse) partial autocorrelations in detecting the order of moving average and autoregressive model. Next, we study the identification of the inverse process of an ARMA model and their probalistic properties. Finally, we characterize the time reversibility by means of the dual and inverse processes. The second part is devoted to estimation of the inverse autocorrelation function in the framework of nonlinear time series. Undes some regularity conditions, we study the asymptotic properties of empirical inverse autocorrelations for stationary and strongly mixing process. We establish the consistency and the asymptotic normality of the estimators. Next, we consider the case of linear process with GARCH errors and obtain means of some examples that the standard formula can be misleading if the generating process is non linear. Finally, we apply our previous results to prove the asymptotic normality of the parameter estimates of weak moving average. Our results are illustrated by Monte Carlo experiments and real data experiences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Guillemé, Maël. „Extraction de connaissances interprétables dans des séries temporelles“. Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S102.

Der volle Inhalt der Quelle
Annotation:
Energiency est une entreprise qui vend à des industriels une plate-forme pour leur permettre d’analyser leurs données de consommation d’énergie, représentées sous la forme de séries temporelles. Cette plate-forme intègre des modèles d’apprentissage automatique pour répondre aux besoins des clients. L’application de tels modèles sur des séries temporelles rencontre deux problèmes : d’une part certaines approches classiques d’apprentissage automatique ont été conçues pour des données tabulaires et doivent être adaptées aux séries temporelles, d’autre part les résultats de certaines approches sont difficilement compréhensibles par les utilisateurs finaux. Dans la première partie, nous adaptons une méthode de recherche d’occurrences de règles temporelles sur des séries temporelles issues de machines et d’infrastructures industrielles. Une règle temporelle capture des relations de succession entre des comportements dans les séries temporelles. Dans des séries industrielles, à cause de la présence de nombreux facteurs extérieurs, ces comportements réguliers peuvent présenter des perturbations. Les méthodes de recherche d’occurrences de règles temporelles actuelles utilisent une mesure de distance pour évaluer la similarité entre des sous-séries. Cependant, ces mesures ne sont pas adaptées pour évaluer la similarité de séries déformées tel que dans les séries temporelles industrielles. La première contribution de cette thèse est la proposition d’une méthode de recherche d’occurrences de règles temporelles capable de capturer cette variabilité dans des séries temporelles industrielles. Pour cela la méthode intègre l’utilisation de mesures de distance élastiques capables d’évaluer la similarité entre des séries temporelles légèrement déformées
Energiency is a company that sells a platform to allow manufacturers to analyze their energy consumption data represented in the form of time series. This platform integrates machine learning models to meet customer needs. The application of such models to time series encounters two problems: on the one hand, some classical machine learning approaches have been designed for tabular data and must be adapted to time series, on the other hand, the results of some approaches are difficult for end users to understand. In the first part, we adapt a method to search for occurrences of temporal rules on time series from machines and industrial infrastructures. A temporal rule captures successional relationships between behaviors in time series . In industrial series, due to the presence of many external factors, these regular behaviours can be disruptive. Current methods for searching the occurrences of a rule use a distance measure to assess the similarity between sub-series. However, these measurements are not suitable for assessing the similarity of distorted series such as those in industrial settings. The first contribution of this thesis is the proposal of a method for searching for occurrences of temporal rules capable of capturing this variability in industrial time series. For this purpose, the method integrates the use of elastic distance measurements capable of assessing the similarity between slightly deformed time series. The second part of the thesis is devoted to the interpretability of time series classification methods, i.e. the ability of a classifier to return explanations for its results. These explanations must be understandable by a human. Classification is the task of associating a time series with a category. For an end user inclined to make decisions based on a classifier’s results, understanding the rationale behind those results is of great importance. Otherwise, it is like having blind confidence in the classifier. The second contribution of this thesis is an interpretable time series classifier that can directly provide explanations for its results. This classifier uses local information on time series to discriminate against them. The third and last contribution of this thesis, a method to explain a posteriori any result of any classifier. We carried out a user study to evaluate the interpretability of our method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Bailly, Adeline. „Classification de séries temporelles avec applications en télédétection“. Thesis, Rennes 2, 2018. http://www.theses.fr/2018REN20021/document.

Der volle Inhalt der Quelle
Annotation:
La classification de séries temporelles a suscité beaucoup d’intérêt au cours des dernières années en raison de ces nombreuses applications. Nous commençons par proposer la méthode Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) qui utilise des descripteurs locaux basés sur la méthode SIFT, adaptés pour les données en une dimension et extraits à intervalles réguliers. Des expériences approfondies montrent que notre méthode D-BoTSW surpassent de façon significative presque tous les classificateurs de référence comparés. Ensuite, nous proposons un nouvel algorithmebasé sur l’algorithme Learning Time Series Shapelets (LTS) que nous appelons Adversarially- Built Shapelets (ABS). Cette méthode est basée sur l’introduction d’exemples adversaires dans le processus d’apprentissage de LTS et elle permet de générer des shapelets plus robustes. Des expériences montrent une amélioration significative de la performance entre l’algorithme de base et notre proposition. En raison du manque de jeux de données labelisés, formatés et disponibles enligne, nous utilisons deux jeux de données appelés TiSeLaC et Brazilian-Amazon
Time Series Classification (TSC) has received an important amount of interest over the past years due to many real-life applications. In this PhD, we create new algorithms for TSC, with a particular emphasis on Remote Sensing (RS) time series data. We first propose the Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) method that uses dense local features based on SIFT features for 1D data. Extensive experiments exhibit that D-BoTSW significantly outperforms nearly all compared standalone baseline classifiers. Then, we propose an enhancement of the Learning Time Series Shapelets (LTS) algorithm called Adversarially-Built Shapelets (ABS) based on the introduction of adversarial time series during the learning process. Adversarial time series provide an additional regularization benefit for the shapelets and experiments show a performance improvementbetween the baseline and our proposed framework. Due to the lack of available RS time series datasets,we also present and experiment on two remote sensing time series datasets called TiSeLaCand Brazilian-Amazon
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Gautier, Antony. „Modèles de séries temporelles à coefficients dépendants du temps“. Lille 3, 2004. http://www.theses.fr/2004LIL30034.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions les propriétés probalistes et/ou statistiques de modèles linéaires ou non-linéaires de séries temporelles à coefficients dépendant du temps. La première partie de la thèse est dévolue à la statistique des modèles ARMA dont les coefficients varient en fonction d'événements récurrents, mais non-périodiques. Les propriétés asymptotiques (convergence forte et normalité) des estimateurs des moindres carrés sont établies. Le cas particulier des modèles ARMA à changement de régime Markoviens est ensuite considéré. La seconde partie de la thèse étudie l'influence asymptotique de la correction par la moyenne des séries temporelles sur l'estimation par moindres carrés de modèles ARMA périodiques. Dans la dernière partie de la thèse, nous étendons nos recherches à des modèles bilinéaires à coefficients périodiques. Les résultats obtenus sont régulièrement illustrés à distance finie à partir d'expériences de Monte Carlo
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Dola, Béchir. „Problèmes économétriques d'analyse des séries temporelles à mémoire longue“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00794676.

Der volle Inhalt der Quelle
Annotation:
Les modalités d'investigation de notre thèse sont menées, sous trois angles : épistémologique, statistique et économique. En première partie de la thèse, dans une approche épistémologique, nous spécifions en quoi le concept de mémoire longue peut apparaître, comme un nouveau paradigme kühnien pour la macroéconomie et la finance. En deuxième partie de la thèse, dans une approche statistique, semi-paramétrique, nous proposons trois extensions de la statistique IR (Increment Ratio) de Surgailis et al, (2008). Premièrement, un théorème central limite multidimensionnelle est établi pour un vecteur composé de plusieurs statistiques IR. Deuxièmement, un test d'adéquation de qualité d'ajustement de type chi2 est déduit de ce théorème. Troisièmement, ce théorème nous a permis de construire des versions adaptatives de l'estimateur et du test d'adéquation étudiés dans un cadre semi-paramétrique général. Nous prouvons que l'estimateur adaptatif du paramètre de la mémoire longue suit une propriété d'Oracle. Les simulations que nous avons menées attestent de la précision et de la robustesse de l'estimateur et du test d'adéquation, même dans le cas non gaussien. En troisième partie de la thèse, nous en déduisons deux tests respectivement de stationnarité et de non stationnarité pour les processus I(d) stationnaires et non stationnaires, pour tout réel d tel que (-0.5< d<1.25). Dans une approche économique, au sein de cette troisième partie de la thèse, nous mettons en oeuvre les résultats théoriques précédents comparés à ceux issus d'autres méthodes statistiques: paramétriques, semi-paramétriques ou non paramétriques (ou heuristiques) appliquées à des séries économiques et financières.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Ahmad, Ali. „Contribution à l'économétrie des séries temporelles à valeurs entières“. Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Jebreen, Kamel. „Modèles graphiques pour la classification et les séries temporelles“. Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0248/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse nous nous intéressons aux méthodes de classifications supervisées utilisant les réseaux bayésiens. L'avantage majeur de ces méthodes est qu'elles peuvent prendre en compte les interactions entre les variables explicatives. Dans une première partie nous proposons une procédure de discrétisation spécifique et une procédure de sélection de variables qui permettent d'améliorer considérablement les classifieurs basés sur des réseaux bayésiens. Cette procédure a montré de très bonnes performances empiriques sur un grand choix de jeux de données connus de l’entrepôt d'apprentissage automatique (UCI Machine Learning repository). Une application pour la prévision de type d’épilepsie à partir de de caractéristiques des patients extraites des images de Tomographie par émission de positrons (TEP) confirme l’efficacité de notre approche comparé à des approches communes de classifications supervisées. Dans la deuxième partie de cette thèse nous nous intéressons à la modélisation des interactions entre des variables dans le contexte de séries chronologiques en grande dimension. Nous avons proposé deux nouvelles approches. La première, similaire à la technique "neighborhood Lasso" remplace la technique Lasso par des machines à vecteurs de supports. La deuxième approche est un réseau bayésien restreint: les variables observées à chaque instant et à l’instant précédent sont utilisées dans un réseau dont la structure est restreinte. Nous montrons l’efficacité de ces approches par des simulations utilisant des donnés simulées issues de modèles linéaires, non-linéaires et un mélange des deux
First, in this dissertation, we will show that Bayesian networks classifiers are very accurate models when compared to other classical machine learning methods. Discretising input variables often increase the performance of Bayesian networks classifiers, as does a feature selection procedure. Different types of Bayesian networks may be used for supervised classification. We combine such approaches together with feature selection and discretisation to show that such a combination gives rise to powerful classifiers. A large choice of data sets from the UCI machine learning repository are used in our experiments, and the application to Epilepsy type prediction based on PET scan data confirms the efficiency of our approach. Second, in this dissertation we also consider modelling interaction between a set of variables in the context of time series and high dimension. We suggest two approaches; the first is similar to the neighbourhood lasso where the lasso model is replaced by Support Vector Machines (SVMs); the second is a restricted Bayesian network for time series. We demonstrate the efficiency of our approaches simulations using linear and nonlinear data set and a mixture of both
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Desrues, Mathilde. „Surveillance opérationnelle de mouvements gravitaires par séries temporelles d'images“. Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAH002.

Der volle Inhalt der Quelle
Annotation:
Comprendre la dynamique et le comportement des mouvements gravitaires est essentiel dans l’anticipation de catastrophes naturelles et donc dans la protection des infrastructures et des personnes. Plusieurs techniques géodésiques apportent déjà des informations sur les champs de déplacement / déformation des pentes instables, techniques qui permettent d’analyser les propriétés géométriques des masses en mouvement et le comportement mécanique des pentes. En combinant des séries temporelles d’images optiques terrestres et ces techniques classiques, la quantité d’informations collectées est densifiée et répartie dans l’espace. Les capteurs passifs numériques sont de plus en plus utilisés pour la détection et la surveillance de mouvements gravitationnels. Ils fournissent à la fois des informations qualitatives, telles que la détection des changements de surface, et une caractérisation quantitative, telle que la quantification du déplacement du sol par des techniques de corrélation d’images. Notre approche consiste à analyser des séries chronologiques d’images terrestres provenant soit d’une seule caméra fixe, soit de caméras stéreoscopiques, ces dernières permettant d’obtenir des informations redondantes et complémentaires. Les séries temporelles sont traitées pour détecter les zones dans lesquelles le comportement cinématique est homogène. Les propriétés de la pente, telles que le volume de glissement et l’épaisseur de la masse en mouvement, font partie des résultats de l’analyse afin d’obtenir une vue d’ensemble aussi complète que possible. Ces travaux sont présentés au travers de l’analyse de quatre glissements de terrain situés dans les Alpes françaises. Ils interviennent dans le cadre d’une convention CIFRE/ANRT entre la société SAGE - Société Alpine de GEotechnique (Gières, France) et l’IPGS – Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
Understanding the dynamics and the behavior of gravitational slope movements is essential to anticipate catastrophic failures and thus to protect lives and infrastructures. Several geodetic techniques already bring some information on the displacement / deformation fields of the unstable slopes. These techniques allow the analysis of the geometrical properties of the moving masses and of the mechanical behavior of the slopes. By combining time series of passive terrestrial imagery and these classical techniques, the amount of collected information is densified and spatially distributed. Digital passive sensors are increasingly used for the detection and the monitoring of gravitational motion. They provide both qualitative information, such as the detection of surface changes, and a quantitative characterization, such as the quantification of the soil displacement by correlation techniques. Our approach consists in analyzing time series of terrestrial images from either a single fixed camera or pair-wise cameras, the latter to obtain redundant and additional information. The time series are processed to detect the areas in which the Kinematic behavior is homogeneous. The slope properties, such as the sliding volume and the thickness of the moving mass, are part of the analysis results to obtain an overview which is as complete as possible. This work is presented around the analysis of four landslides located in the French Alps. It is part of a CIFRE/ANRT agreement between the SAGE Society - Société Alpine de Géotechnique (Gières, France) and the IPGS - Institut de Physique du Globe de Strasbourg / CNRS UMR 7516 (Strasbourg, France)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Buiatti, Marco. „Correlations à longue distance dans les séries temporelles biologiques“. Paris 6, 2006. http://www.theses.fr/2006PA066242.

Der volle Inhalt der Quelle
Annotation:
Plusieurs systèmes biologiques montrent des corrélations a à longue distancedistance, i. E. C-à-d des corrélations qui décadent déclinent très lentement dans le temps et l’espace dans l'espace. Le but de cette thèse est celui de contribuer à l'explication de ce problème phénomène à la fois en explorant les relations entre la fonction du système et sa structure statistique a longue distance, et en étudiant l’adaptation des systèmes biologiques à un environnement caractérisé par des corrélations a longue distance. La première étude explore montre comment une tache de raisonnement module les corrélations temporelles àa longue distance de l'activité cérébrale, associée enregistrée par l'EEG, sont modulées par une tache de raisonnement. Dans la deuxième étude, nous étudions la structure d’ordre élevé des corrélations a à longue
A large number of biological systems exhibit scale-free behaviour of one or more variables. Scale-free behaviour reflects a tendency of complex systems to develop long-range correlations, i. E. Correlations that decay very slowly in time and extend over very large distances in space. However, the properties and the functional role of long-range correlations in biological systems are still poorly understood. The aim of this thesis is to shed new light into this issue with three studies in three different biological domains, both by exploring the relationship between the function of the system and its long-range statistical structure, and by investigating how biological systems adapt to a long-range correlated environment. The first study explores how a reasoning task modulates the temporal long-range correlations of the associated brain electrical activity as recorded by EEG. The task consists in searching a rule in triplets of numbers, and hypothesis are tested on the base of a performance feedback. We demonstrate that negative feedback elicits significantly stronger long-range correlations than positive feedback in wide brain areas. In the second study, we develop a high-order measure to investigate the long-range statistical structure of DNA sequences of prokaryotes. We test the hypothesis that prokaryotic DNA statistics is described by a model consisting in the superposition of a long-range correlated component and random noise. We show that the model fits the long-range statistics of several prokaryotic DNA sequences, and suggest a functional explanation of the result. The main aim of the third study was to investigate how neurons in the retina adapts to the wide range, long-range correlated temporal statistics of natural scenes. Adaptation is modelled as the cascade of the two major mechanisms of adaptation in the retina - light adaptation and contrast adaptation - predicting the mean and the variance of the input from the past input values. By testing the model on time series of natural light intensities, we show that such cascade is indeed sufficient to adapt to the natural stimulus by removing most of its long-range correlations, while no linear filtering alone achieves the same goal. This result suggests that contrast adaptation has efficiently developed to exploit the long-range temporal correlations of natural scenes in an optimal way
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Gueguen, Lionel. „Extraction d'information et compression conjointes de Séries Temporelles d'Images Satellitaires“. Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003146.

Der volle Inhalt der Quelle
Annotation:
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d'Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Partouty, S. „Interprétation des séries temporelles altimétriques sur la calotte polaire Antarctique“. Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-01018319.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de mieux comprendre les variations temporelles des signaux altimétriques sur la calotte polaire Antarctique. Nous exploitons les observations effectuées par l'altimètre à bord d'ENVISAT entre janvier 2003 et décembre 2007. Ces observations s'étendent jusqu'à 82°Sud, ce qui permet de couvrir environ 80% du continent Antarctique. Pendant la période d'étude deux fréquences sont exploitables (Bande S, soit 3.2GHz, et Bande Ku soit 13.6GHz), ce qui permet de mieux cerner la sensibilité de la mesure aux variations d'état du manteau neigeux couvrant la calotte polaire Antarctique. L'état de la surface neigeuse en Antarctique varie dans l'espace comme dans le temps, en réponse aux événements météorologiques de proche surface, et tout particulièrement les vents. Selon l'état de la surface, l'onde électromagnétique émise par l'altimètre va pénétrer plus ou moins profondément dans le manteau neigeux, modifiant la forme de l'écho enregistré lorsque cette onde retourne au satellite. La précision des mesures de topographie de la calotte polaire dépend alors de la connaissance des propriétés de surface, ainsi que de la compréhension des mécanismes contrôlant l'interaction des ondes électromagnétiques avec la surface neigeuse. Nous étudions dans cette thèse comment la forme de l'écho altimétrique évolue lorsque les conditions de vent à la surface de la calotte polaire changent, et affectent l'état de la surface. Nous commençons par étudier la variabilité spatiale et temporelle des observations altimétriques d'une part, et des intensités de vent d'autre part (réanalyses des modèles atmosphériques globaux NCEP/NCAR, NCEP/DOE et ERA-Interim). Nous en identifions les échelles de variations spatiales et temporelles caractéristiques. Cela nous permet de concevoir les traitements à appliquer afin d'homogénéiser les différentes sources d'information. Nous constatons que les variations de nos séries temporelles décrivent essentiellement un signal annuel, toujours maximal en été austral pour les variations de vents. En revanche les variations annuelles de la forme d'onde ne sont pas homogènes à l'échelle de la calotte polaire, mais mettent en évidence deux régions principales. Nous utilisons ensuite les propriétés de la forme d'onde altimétrique, et leurs variations temporelles pour reconstruire les variations d'intensité de vents. Nous obtenons de très bonnes cohérences, ce qui atteste la sensibilité de la mesure altimétrique aux changements d'état de la surface induits par les variations de vent. Nous utilisons en dernier lieu un modèle régional (MAR/LGGE), qui prend en compte les interactions des vents avec l'état de la surface avec une résolution spatiale plus fine. Cela nous permet de confirmer les résultats déjà obtenus, et de mettre en valeur les spécificités du modèle MAR. Les méthodes mises en jeu sont empiriques et les résutats obtenus qualitatifs. Nous avons toutefois identifié deux régions majeures, réagissant différemment aux variations de vents, que nous expliquons par l'existence de structures de surface particulières, et un impact différent des vents sur l'état de la surface.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Khiali, Lynda. „Fouille de données à partir de séries temporelles d’images satellites“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS046/document.

Der volle Inhalt der Quelle
Annotation:
Les images satellites représentent de nos jours une source d’information incontournable. Elles sont exploitées dans diverses applications, telles que : la gestion des risques, l’aménagent des territoires, la cartographie du sol ainsi qu’une multitude d’autre taches. Nous exploitons dans cette thèse les Séries Temporelles d’Images Satellites (STIS) pour le suivi des évolutions des habitats naturels et semi-naturels. L’objectif est d’identifier, organiser et mettre en évidence des patrons d’évolution caractéristiques de ces zones.Nous proposons des méthodes d’analyse de STIS orientée objets, en opposition aux approches par pixel, qui exploitent des images satellites segmentées. Nous identifions d’abord les profils d’évolution des objets de la série. Ensuite, nous analysons ces profils en utilisant des méthodes d’apprentissage automatique. Afin d’identifier les profils d’évolution, nous explorons les objets de la série pour déterminer un sous-ensemble d’objets d’intérêt (entités spatio-temporelles/objets de référence). L’évolution de ces entités spatio-temporelles est ensuite illustrée en utilisant des graphes d’évolution.Afin d’analyser les graphes d’évolution, nous avons proposé trois contributions. La première contribution explore des STIS annuelles. Elle permet d’analyser les graphes d’évolution en utilisant des algorithmes de clustering, afin de regrouper les entités spatio-temporelles évoluant similairement. Dans la deuxième contribution, nous proposons une méthode d’analyse pluri-annuelle et multi-site. Nous explorons plusieurs sites d’étude qui sont décrits par des STIS pluri-annuelles. Nous utilisons des algorithmes de clustering afin d’identifier des similarités intra et inter-site. Dans la troisième contribution, nous introduisons une méthode d’analyse semi-supervisée basée sur du clustering par contraintes. Nous proposons une méthode de sélection de contraintes. Ces contraintes sont utilisées pour guider le processus de clustering et adapter le partitionnement aux besoins de l’utilisateur.Nous avons évalué nos travaux sur différents sites d’étude. Les résultats obtenus ont permis d’identifier des profils d’évolution types sur chaque site d’étude. En outre, nous avons aussi identifié des évolutions caractéristiques communes à plusieurs sites. Par ailleurs, la sélection de contraintes pour l’apprentissage semi-supervisé a permis d’identifier des entités profitables à l’algorithme de clustering. Ainsi, les partitionnements obtenus en utilisant l’apprentissage non supervisé ont été améliorés et adaptés aux besoins de l’utilisateur
Nowadays, remotely sensed images constitute a rich source of information that can be leveraged to support several applications including risk prevention, land use planning, land cover classification and many other several tasks. In this thesis, Satellite Image Time Series (SITS) are analysed to depict the dynamic of natural and semi-natural habitats. The objective is to identify, organize and highlight the evolution patterns of these areas.We introduce an object-oriented method to analyse SITS that consider segmented satellites images. Firstly, we identify the evolution profiles of the objects in the time series. Then, we analyse these profiles using machine learning methods. To identify the evolution profiles, we explore all the objects to select a subset of objects (spatio-temporal entities/reference objects) to be tracked. The evolution of the selected spatio-temporal entities is described using evolution graphs.To analyse these evolution graphs, we introduced three contributions. The first contribution explores annual SITS. It analyses the evolution graphs using clustering algorithms, to identify similar evolutions among the spatio-temporal entities. In the second contribution, we perform a multi-annual cross-site analysis. We consider several study areas described by multi-annual SITS. We use the clustering algorithms to identify intra and inter-site similarities. In the third contribution, we introduce à semi-supervised method based on constrained clustering. We propose a method to select the constraints that will be used to guide the clustering and adapt the results to the user needs.Our contributions were evaluated on several study areas. The experimental results allow to pinpoint relevant landscape evolutions in each study sites. We also identify the common evolutions among the different sites. In addition, the constraint selection method proposed in the constrained clustering allows to identify relevant entities. Thus, the results obtained using the unsupervised learning were improved and adapted to meet the user needs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Parouty, Soazig. „Interprétation des séries temporelles altimétriques sur la calotte polaire Antartique“. Toulouse 3, 2009. http://thesesups.ups-tlse.fr/900/.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de mieux comprendre les variations temporelles des signaux altimétriques sur la calotte polaire Antarctique. Nous exploitons les observations effectuées par l'altimètre à bord d'ENVISAT entre janvier 2003 et décembre 2007. Ces observations s'étendent jusqu'à 82°Sud, ce qui permet de couvrir environ 80% du continent Antarctique. Pendant la période d'étude deux fréquences sont exploitables (Bande S, soit 3. 2GHz, et Bande Ku soit 13. 6GHz), ce qui permet de mieux cerner la sensibilité de la mesure aux variations d'état du manteau neigeux couvrant la calotte polaire Antarctique. L'état de la surface neigeuse en Antarctique varie dans l'espace comme dans le temps, en réponse aux événements météorologiques de proche surface, et tout particulièrement les vents. Selon l'état de la surface, l'onde électromagnétique émise par l'altimètre va pénétrer plus ou moins profondément dans le manteau neigeux, modifiant la forme de l'écho enregistré lorsque cette onde retourne au satellite. La précision des mesures de topographie de la calotte polaire dépend alors de la connaissance des propriétés de surface, ainsi que de la compréhension des mécanismes contrôlant l'interaction des ondes électromagnétiques avec la surface neigeuse. Nous étudions dans cette thèse comment la forme de l'écho altimétrique évolue lorsque les conditions de vent à la surface de la calotte polaire changent, et affectent l'état de la surface. Nous commençons par étudier la variabilité spatiale et temporelle des observations altimétriques d'une part, et des intensités de vent d'autre part (réanalyses des modèles atmosphériques globaux NCEP/NCAR, NCEP/DOE et ERA-Interim). Nous en identifions les échelles de variations spatiales et temporelles caractéristiques. Cela nous permet de concevoir les traitements à appliquer afin d'homogénéiser les différentes sources d'information. Nous constatons que les variations de nos séries temporelles décrivent essentiellement un signal annuel, toujours maximal en été austral pour les variations de vents. En revanche les variations annuelles de la forme d'onde ne sont pas homogènes à l'échelle de la calotte polaire, mais mettent en évidence deux régions principales. Nous utilisons ensuite les propriétés de la forme d'onde altimétrique, et leurs variations temporelles pour reconstruire les variations d'intensité de vents
This work aims at improving our understanding of the altimetric time series acquired over the Antarctic Ice Sheet. Dual frequency data (S Band - 3. 2GHz and Ku Band - 13. 6GHz) from thealtimeter onboard the ENVISAT satellite are used, during a five year time period from january2003 until december 2007. These data cover around 80% of the surface of the Antarctic continent,up to 82°S. Having data in two different frequencies is valuable when it comes to better estimatethe altimeter sensitivity regarding snow surface property changes. Over the Antarctic ice sheet, snow surface changes with respect to space and time, beingaffected by meteorological conditions close to the surface, and especially winds. The altimetricwave penetrates more or less deeply beneath the surface, depending on snow surface and subsurfaceproperties. As a result, when the wave comes back to the satellite, the recorded signal, namedwaveform, is more or less distorted. The accuracy of the ice sheet topographic changes computedthanks to satellite altimetric techniques depends on our knowledge of the processes inducing thisdistortion. The purpose of the present work is to better understand the effect of changing windconditions on altimetric data. Winds in Antarctica are indeed famous for their strength and theirimpact on the snow surface state. First, spatial and temporal variability of the altimetric data on the one hand, and of wind speedreanalysis fields (from ERA-Interim, NCEP/NCAR and NCEP/DOE projects) on the other handare studied. We estimate spatial and temporal typical length scales for all datasets. As a result, weare able to smooth the data, so that all datasets have the same spatial and temporal caractericticlength scales. Furthermore, we note that our time series are well described by an annual signal. This annual cycle shows that whereas wind speed would always be maximum in austral winter,altimetric seasonal cycles have very different behaviors depending on the location. .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Boné, Romuald. „Réseaux de neurones récurrents pour la prévision de séries temporelles“. Tours, 2000. http://www.theses.fr/2000TOUR4003.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de neurones à propagation avant sont statiques, leurs sorties ne dépendant que des entrées courantes. Pour contourner cette limitation, la technique la plus répandue repose sur l'utilisation de fenêtres temporelles. Ces techniques sont insuffisantes lorsqu'une mémoire relativement profondes est nécessaire ou lorsque la profondeur de celle-ci est inconnue. Les réseaux de neurones récurrents sont capables de modéliser des dépendances temporelles de durée quelconque entre les entrées et les sorties désirées associées, en utilisant une mémoire implicite, codée grace aux connexions récurrentes et aux sorties des neurones eux-mêmes. Cependant, en pratique les réseaux récurrents sont associés à des algorithmes d'apprentissage bases sur le calcul du gradient, qui présentent des limitations dans la prise en compte des dépendances à moyen ou long terme. La résolution de ce problème peut passer par l'ajout de connexions contenant des retards. Le choix de la localisation de ces connexions et du nombre de retards nécessaires restent à la charge de l'expérimentateur. Nous proposons une nouvelle approche qui repose sur la définition de critères pour l'ajout sélectif de connexions à délais. Il en résulte des algorithmes constructifs, permettant d'adapter l'architecture du réseau au problème temporel à traiter. Le premier critère propose correspond à la variation de l'erreur lors de l'exploration restreinte des différentes alternatives d'implantation de connexions supplémentaires. L'exploration consiste en un apprentissage limite à quelques itérations. Le deuxième critère repose sur un calcul des corrélations entre des quantités générées à l'intérieur du réseau au cours de l'apprentissage, et correspond à une estimation de la variation des poids des connexions à délais candidates. Des expérimentations systématiques ont été menées sur des problèmes de référence de prévision de séries temporelles. Les résultats obtenus montrent l'intérêt de nos contributions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Goldfarb, Bernard. „Etude structurelle des séries temporelles : les moyens de l'analyse spectrale“. Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Der volle Inhalt der Quelle
Annotation:
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Esstafa, Youssef. „Modèles de séries temporelles à mémoire longue avec innovations dépendantes“. Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD021.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse nous considérons, dans un premier temps, le problème de l'analyse statistique des modèles FARIMA (Fractionally AutoRegressive Integrated Moving-Average) induits par un bruit blanc non corrélé mais qui peut contenir des dépendances non linéaires très générales. Ces modèles sont appelés FARIMA faibles et permettent de modéliser des processus à mémoire longue présentant des dynamiques non linéaires, de structures souvent non-identifiées, très générales. Relâcher l'hypothèse d'indépendance sur le terme d'erreur, une hypothèse habituellement imposée dans la littérature, permet aux modèles FARIMA faibles d'élargir considérablement leurs champs d'application en couvrant une large classe de processus à mémoire longue non linéaires. Les modèles FARIMA faibles sont denses dans l'ensemble des processus stationnaires purement non déterministes, la classe formée par ces modèles englobe donc celle des processus FARIMA avec un bruit indépendant et identiquement distribué (iid). Nous appelons par la suite FARIMA forts les modèles dans lesquels le terme d'erreur est supposé être un bruit iid.Nous établissons les procédures d'estimation et de validation des modèles FARIMA faibles. Nous montrons, sous des hypothèses faibles de régularités sur le bruit, que l'estimateur des moindres carrés des paramètres des modèles FARIMA(p,d,q) faibles est fortement convergent et asymptotiquement normal. La matrice de variance asymptotique de l'estimateur des moindres carrés des modèles FARIMA(p,d,q) faibles est de la forme "sandwich". Cette matrice peut être très différente de la variance asymptotique obtenue dans le cas fort (i.e. dans le cas où le bruit est supposé iid). Nous proposons, par deux méthodes différentes, un estimateur convergent de cette matrice. Une méthode alternative basée sur une approche d'auto-normalisation est également proposée pour construire des intervalles de confiance des paramètres des modèles FARIMA(p,d,q) faibles. Cette technique nous permet de contourner le problème de l'estimation de la matrice de variance asymptotique de l'estimateur des moindres carrés.Nous accordons ensuite une attention particulière au problème de la validation des modèles FARIMA(p,d,q) faibles. Nous montrons que les autocorrélations résiduelles ont une distribution asymptotique normale de matrice de covariance différente de celle obtenue dans le cadre des FARIMA forts. Cela nous permet de déduire la loi asymptotique exacte des statistiques portmanteau et de proposer ainsi des versions modifiées des tests portmanteau standards de Box-Pierce et Ljung-Box. Il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un khi-deux lorsque le terme d'erreur est supposé iid. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de khi-deux. Elle peut être très différente de l'approximation khi-deux usuelle du cas fort. Nous adoptons la même approche d'auto-normalisation utilisée pour la construction des intervalles de confiance des paramètres des modèles FARIMA faibles pour tester l'adéquation des modèles FARIMA(p,d,q) faibles. Cette méthode a l'avantage de contourner le problème de l'estimation de la matrice de variance asymptotique du vecteur joint de l'estimateur des moindres carrés et des autocovariances empiriques du bruit.Dans un second temps, nous traitons dans cette thèse le problème de l'estimation des modèles autorégressifs d'ordre 1 induits par un bruit gaussien fractionnaire d'indice de Hurst H supposé connu. Nous étudions, plus précisément, la convergence et la normalité asymptotique de l'estimateur des moindres carrés généralisés du paramètre autorégressif de ces modèles
We first consider, in this thesis, the problem of statistical analysis of FARIMA (Fractionally AutoRegressive Integrated Moving-Average) models endowed with uncorrelated but non-independent error terms. These models are called weak FARIMA and can be used to fit long-memory processes with general nonlinear dynamics. Relaxing the independence assumption on the noise, which is a standard assumption usually imposed in the literature, allows weak FARIMA models to cover a large class of nonlinear long-memory processes. The weak FARIMA models are dense in the set of purely non-deterministic stationary processes, the class of these models encompasses that of FARIMA processes with an independent and identically distributed noise (iid). We call thereafter strong FARIMA models the models in which the error term is assumed to be an iid innovations.We establish procedures for estimating and validating weak FARIMA models. We show, under weak assumptions on the noise, that the least squares estimator of the parameters of weak FARIMA(p,d,q) models is strongly consistent and asymptotically normal. The asymptotic variance matrix of the least squares estimator of weak FARIMA(p,d,q) models has the "sandwich" form. This matrix can be very different from the asymptotic variance obtained in the strong case (i.e. in the case where the noise is assumed to be iid). We propose, by two different methods, a convergent estimator of this matrix. An alternative method based on a self-normalization approach is also proposed to construct confidence intervals for the parameters of weak FARIMA(p,d,q) models.We then pay particular attention to the problem of validation of weak FARIMA(p,d,q) models. We show that the residual autocorrelations have a normal asymptotic distribution with a covariance matrix different from that one obtained in the strong FARIMA case. This allows us to deduce the exact asymptotic distribution of portmanteau statistics and thus to propose modified versions of portmanteau tests. It is well known that the asymptotic distribution of portmanteau tests is correctly approximated by a chi-squared distribution when the error term is assumed to be iid. In the general case, we show that this asymptotic distribution is a mixture of chi-squared distributions. It can be very different from the usual chi-squared approximation of the strong case. We adopt the same self-normalization approach used for constructing the confidence intervals of weak FARIMA model parameters to test the adequacy of weak FARIMA(p,d,q) models. This method has the advantage of avoiding the problem of estimating the asymptotic variance matrix of the joint vector of the least squares estimator and the empirical autocovariances of the noise.Secondly, we deal in this thesis with the problem of estimating autoregressive models of order 1 endowed with fractional Gaussian noise when the Hurst parameter H is assumed to be known. We study, more precisely, the convergence and the asymptotic normality of the generalized least squares estimator of the autoregressive parameter of these models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Gueguen, Lionel. „Extraction d'information et compression conjointes des séries temporelles d'images satellitaires“. Paris, ENST, 2007. http://www.theses.fr/2007ENST0025.

Der volle Inhalt der Quelle
Annotation:
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d’Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires
Nowadays, new data which contain interesting information can be produced : the Satellite Image Time Series which are observations of Earth’s surface evolution. These series constitute huge data volume and contain complex types of information. For example, numerous spatio-temporal events, such as harvest or urban area expansion, can be observed in these series and serve for remote surveillance. In this framework, this thesis deals with the information extraction from Satellite Image Time Series automatically in order to help spatio-temporal events comprehension and the compression in order to reduce storing space. Thus, this work aims to provide methodologies which extract information and compress jointly these series. This joint processing provides a compact representation which contains an index of the informational content. First, the concept of joint extraction and compression is described where the information extraction is grasped as a lossy compression of the information. Secondly, two methodologies are developed based on the previous concept. The first one provides an informational content index based on the Information Bottleneck principle. The second one provides a code or a compact representation which integrates an informational content index. Finally, both methodologies are validated and compared with synthetic data, then are put into practice successfully with Satellite Image Time Series
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Hili, Ouagnina. „Contribution à l'estimation des modèles de séries temporelles non linéaires“. Université Louis Pasteur (Strasbourg) (1971-2008), 1995. http://www.theses.fr/1995STR13169.

Der volle Inhalt der Quelle
Annotation:
Le but de la these est d'effectuer l'inference statistique d'une classe generale de modeles de series temporelles non lineaires. Notre contribution consiste d'abord a determiner des conditions assurant l'existence d'une loi stationnaire, l'existence des moments de cette loi stationnaire et la forte melangeance de tels modeles. Nous etablissons ensuite les proprietes asymptotiques de l'estimateur du minimum de distance d'hellinger du parametre d'interet. La robustesse de cet estimateur est egalement envisagee. Nous examinons aussi, via la methode des moindres carres, les proprietes asymptotiques des estimateurs des coefficients des modeles autoregressifs a seuils
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Ladjouze, Salim. „Problèmes d'estimation dans les séries temporelles stationnaires avec données manquantes“. Phd thesis, Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://tel.archives-ouvertes.fr/tel-00319946.

Der volle Inhalt der Quelle
Annotation:
Le problème des données manquantes a été abordé en introduisant les processus modulés en amplitude. Les propriétés de type ergodique (ergodicité au k-ième degré) sont étudiées dans le cadre des processus asymptotiquement stationnaires. Dans le domaine non paramétrique on étudie la consistance de deux estimateurs de la fonction de covariance et la variance asymptotique de l'un deux. On propose ensuite une méthode générale d'estimation de la fonction de densité spectrale du processus étudié. L'estimateur obtenu est étudié du point de vue biais et variance asymptotiques. Des méthodes d'estimation paramétrique, basées sur le périodogramme et du maximum de vraisemblance, sont aussi présentées
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Héas, Patrick. „Apprentissage bayésien de structures spatio-temporelles : application à la fouille visuelle de séries temporelles d'images de satellites“. Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0004.

Der volle Inhalt der Quelle
Annotation:
Durant les dernières décennies, les satellites n'ont cessé d'acquérir des images de haute résolution de beaucoup de sites d'observation de la Terre. De nouveaux produits sont apparus avec ce processus d'acquisition intensif : les séries temporelles d'images satellites de haute résolution. Elles représentent un important volume de données dont le riche contenu informatif est susceptible d'intéresser un large panel d'applications nouvelles. Cette thèse présente un concept de fouille d'information qui permet l'apprentissage de structures spatio-temporelles contenues dans les séquences d'images, l'objectif étant l'interprétation et la recherche probabiliste de phénomènes dans l'espace et le temps. Les connaissances expertes d'un utilisateur conduisent le processus d'apprentissage, via la communication d'exemples et de contre exemples. Les fondements théoriques de ce concept se situent à l'interface de l'inférence bayésienne et entropique, des modèles stochastiques et de la cognition visuelle. Le concept emploie une modélisation hiérarchique bayésienne du contenu des séquences d'images, qui permet de lier les intérêt des utilisateurs aux différentes structures spatio-temporelles. La hiérarchie comprend deux principales phases d'apprentissage : l'inférence non supervisé d'un graphe de trajectoires de clusters dynamiques et, basé sur ce graphe, l'apprentissage interactif d'étiquettes sémantiques associées aux structures spatio-temporelles contenues dans la scène dynamique. Les algorithmes et méthodes développés sont intégrés dans un système de fouille visuelle d'information. Ce système représente un outil entièrement novateur pour l'exploitation du contenu des séries temporelles d'images satellites de haute résolution. Les expériences effectuées avec une série temporelles d'images SPOT démontrent les capacités du système dans la compréhension de scènes dynamiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Khaleghi, Azadeh. „Sur quelques problèmes non-supervisés impliquant des séries temporelles hautement dépendantes“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00920333.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'analyse théorique de problèmes non supervisés impliquant des séries temporelles hautement dépendantes. Plus particulièrement, nous abordons les deux problèmes fondamentaux que sont le problème d'estimation des points de rupture et le partitionnement de séries temporelles. Ces problèmes sont abordés dans un cadre extrêmement général où les données sont générées par des processus stochastiques ergodiques stationnaires. Il s'agit de l'une des hypothèses les plus faibles en statistiques, comprenant non seulement, les hypothèses de modèles et les hypothèses paramétriques habituelles dans la littérature scientifique, mais aussi des hypothèses classiques d'indépendance, de contraintes sur l'espace mémoire ou encore des hypothèses de mélange. En particulier, aucune restriction n'est faite sur la forme ou la nature des dépendances, de telles sortes que les échantillons peuvent être arbitrairement dépendants. Pour chaque problème abordé, nous proposons de nouvelles méthodes non paramétriques et nous prouvons de plus qu'elles sont, dans ce cadre, asymptotique- ment consistantes. Pour l'estimation de points de rupture, la consistance asymptotique se rapporte à la capacité de l'algorithme à produire des estimations des points de rupture qui sont asymptotiquement arbitrairement proches des vrais points de rupture. D'autre part, un algorithme de partitionnement est asymptotiquement consistant si le partitionnement qu'il produit, restreint à chaque lot de séquences, coïncides, à partir d'un certain temps et de manière consistante, avec le partitionnement cible. Nous montrons que les algorithmes proposés sont implémentables efficacement, et nous accompagnons nos résultats théoriques par des évaluations expérimentales. L'analyse statistique dans le cadre stationnaire ergodique est extrêmement difficile. De manière générale, il est prouvé que les vitesses de convergence sont impossibles à obtenir. Dès lors, pour deux échantillons générés indépendamment par des processus ergodiques stationnaires, il est prouvé qu'il est impossible de distinguer le cas où les échantillons sont générés par le même processus de celui où ils sont générés par des processus différents. Ceci implique que des problèmes tels le partitionnement de séries temporelles sans la connaissance du nombre de partitions ou du nombre de points de rupture ne peut admettre de solutions consistantes. En conséquence, une tâche difficile est de découvrir les formulations du problème qui en permettent une résolution dans ce cadre général. La principale contribution de cette thèse est de démontrer (par construction) que malgré ces résultats d'impossibilités théoriques, des formulations naturelles des problèmes considérés existent et admettent des solutions consistantes dans ce cadre général. Ceci inclut la démonstration du fait que le nombre de points de rupture corrects peut être trouvé, sans recourir à des hypothèses plus fortes sur les processus stochastiques. Il en résulte que, dans cette formulation, le problème des points de rupture peut être réduit à du partitionnement de séries temporelles. Les résultats présentés dans ce travail formulent les fondations théoriques pour l'analyse des données séquentielles dans un espace d'applications bien plus large.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Le, Tertre Alain. „Séries temporelles et analyse combinée des liens pollution atmosphérique et santé“. Paris 6, 2005. http://www.theses.fr/2005PA066434.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Mercier, Ludovic. „Séries temporelles chaotiques appliquées à la finance problèmes statistiques et algorithmiques“. Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090049.

Der volle Inhalt der Quelle
Annotation:
Notre contribution à l'étude des séries temporelles chaotiques porte sur les points suivants. Nous proposons un cadre d'étude permettant de prendre en compte les apports des différents domaines scientifiques traitant de ce type de données : traitement du signal, systèmes dynamiques, théorie ergodique, finance et statistiques. Nous précisons la notion d'exposant de Lyapunov global à l'aide de plusieurs définitions, de la plus formelle à la plus usitée. Nous montrons pourquoi les exposants de Lyapunov globaux sont utiles pour caractériser un chaos mais pratiquement inutiles lorsqu'il s'agit de faire des prévisions. On s'intéresse alors aux exposants de Lyapunov locaux. On montre comment chaque définition est reliée aux exposants de Lyapunov globaux et on précise dans quel cadre applicatif chaque définition est pertinente. On donne un résultat nouveau concernant la distribution des exposants de Lyapunov locaux. Nous considérons les méthodes de prévisions non-paramétriques utilisables dans ce contexte en en détaillant deux qui semblent particulièrement adaptées aux chaos : les plus proches voisins et les fonctions radiales. Ce dernier estimateur fait l'objet d'une étude plus approfondie. On précise ses propriétés et on donne un algorithme pour le mettre en œuvre. Nous étudions la prédictibilité des séries temporelles chaotiques. On montre comment l'horizon de prédiction est relié aux exposants de Lyapunov locaux du système. On propose une approche théorique nouvelle pour traiter le cas des chaos bruités. On s'intéresse au problème du choix d'un pas d'échantillonnage pour les séries chaotiques issues d'un système en temps continu. On donne un résultat nouveau permettant de choisir un pas d'échantillonnage optimal au sens de l'horizon de prédiction. Nous étayons ces présentations d'un ensemble de simulations à partir de chaos connus en précisant leurs couts algorithmiques. On discute les problèmes posés par la simulation des séries temporelles chaotiques. Enfin, nous donnons deux applications des outils développés dans le cadre des séries financières infra-journalières. La première application est une illustration directe de ces outils dans le cas des taux de change. La seconde application fait préalablement appel aux méthodes de déformation du temps qui sont présentées ici dans un cadre unifié nouveau
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Cherkaoui, Abdelhai. „Modélisation des séries temporelles par des méthodes de décomposition et applications“. Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX24011.

Der volle Inhalt der Quelle
Annotation:
Notre travail a porte sur l'etude des methodes de decomposition des series temporelles. Cet etude a ete realise en quatre etapes. Dans un premier temps nous avons analyse les methodes classiques de decomposition par la regression lineaire et le lissage par les moyennes mobiles. Dans un second temps, nous avons etudie la methode de decomposition d'un modele arima. Dans un troisieme temps, nous avons donne une methode fondee sur l'algorithme recursif de kalman. Dans un quatrieme temps nous avons illustre ces resultats theoriques et nous avons tente une comparaison entre la methode de box-jenkins et la methode de lissage par les moyennes mobiles
Our work has centered on the study of decomposition methods time series. This was done in four stages. First, we analyse classical methods of linear regression and of smoothing by moving averages. Secondly, we examine the decomposition method of an arima model. In the third stage, we present a method based on the recurrent algorithm of kalman. In the fourth stage, we illustrate our theoretical results and attempt to compare the box-jenkins method and the method of smoothing by moving average
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Petitjean, François. „Dynamic time warping : apports théoriques pour l'analyse de données temporelles : application à la classification de séries temporelles d'images satellites“. Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD023.

Der volle Inhalt der Quelle
Annotation:
Les séries temporelles d’images satellites (STIS) sont des données cruciales pour l’observation de la terre. Les séries temporelles actuelles sont soit des séries à haute résolution temporelle (Spot-Végétation, MODIS), soit des séries à haute résolution spatiale (Landsat). Dans les années à venir, les séries temporelles d’images satellites à hautes résolutions spatiale et temporelle vont être produites par le programme Sentinel de l’ESA. Afin de traiter efficacement ces immenses quantités de données qui vont être produites (par exemple, Sentinel-2 couvrira la surface de la terre tous les cinq jours, avec des résolutions spatiales allant de 10m à 60m et disposera de 13 bandes spectrales), de nouvelles méthodes ont besoin d’être développées. Cette thèse se focalise sur la comparaison des profils d’évolution radiométrique, et plus précisément la mesure de similarité « Dynamic Time Warping », qui constitue un outil permettant d’exploiter la structuration temporelle des séries d’images satellites
Satellite Image Time Series are becoming increasingly available and will continue to do so in the coming years thanks to the launch of space missions, which aim at providing a coverage of the Earth every few days with high spatial resolution (ESA’s Sentinel program). In the case of optical imagery, it will be possible to produce land use and cover change maps with detailed nomenclatures. However, due to meteorological phenomena, such as clouds, these time series will become irregular in terms of temporal sampling. In order to consistently handle the huge amount of information that will be produced (for instance, Sentinel-2 will cover the entire Earth’s surface every five days, with 10m to 60m spatial resolution and 13 spectral bands), new methods have to be developed. This Ph.D. thesis focuses on the “Dynamic Time Warping” similarity measure, which is able to take the most of the temporal structure of the data, in order to provide an efficient and relevant analysis of the remotely observed phenomena
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Toque, Carole. „Pour l'identification de modèles factoriels de séries temporelles : application aux ARMA stationnaires“. Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001966.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est axée sur le problème de l'identification de modèles factoriels de séries temporelles et est à la rencontre des deux domaines de la Statistique, l'analyse des séries temporelles et l'analyse des données avec ses méthodes descriptives. La première étape de notre travail a pour but d'étendre à plusieurs séries temporelles discrètes, l'étude des composantes principales de Jenkins développée dans les années 70. Notre approche adapte l'analyse en composantes principales "classique" (ou ACP) aux séries temporelles en s'inspirant de la technique Singular Spectrum Analysis (ou SSA). Un principe est déduit et est appliqué au processus multidimensionnel générateur des séries. Une matrice de covariance à structure "remarquable" est construite autour de vecteurs al9;atoires décalés: elle exploite la chronologie, la stationnarité et la double dimension du processus. A l'aide de deux corollaires établis par Friedman B. dans les années 50 basés sur le produit tensoriel de matrices, et de propriétés de covariance des processus circulaires, nous approchons les éléments propres de la matrice de covariance. La forme générale des composantes principales de plusieurs séries temporelles est déduite. Dans le cas des processus "indépendants", une propriété des scores est établie et les composantes principales sont des moyennes mobiles des séries temporelles. A partir des résultats obtenus, une méthodologie est présentée permettant de construire des modèles factoriels de référence sur des ARMA vectoriels "indépendants". L'objectif est alors de projeter une nouvelle série dans un des modèles graphiques pour son identification et une première estimation de ses paramètres. Le travail s'effectue dans un cadre théorique, puis dans un cadre expérimental en simulant des échantillons de trajectoires AR(1) et MA(1) stationnaires, "indépendantes" et à coefficients symétriques. Plusieurs ACP, construites sur la matrice temporelle issue de la simulation, produisent de bonnes qualités de représentation des processus qui se regroupent ou s'opposent selon leur type en préservant la propriété des scores et la symétrie dans le comportement des valeurs propres. Mais, ces modèles factoriels reflètent avant tout la variabilité des bruits de la simulation. Directement basées sur les autocorrélations, de nouvelles ACP donnent de meilleurs résultats quels que soient les échantillons. Un premier modèle factoriel de référence est retenu pour des séries à forts coefficients. La description et la mesure d'éventuels changements structurels conduisent à introduire des oscillateurs, des fréquences et des mesures entropiques. C'est l'approche structurelle. Pour établir une possible non-linéarité entre les nombreux critères et pour augmenter la discrimination entre les séries, une analyse des correspondances multiples suivie d'une classification est élaborée sur les entropies et produit un deuxième modèle de référence avec trois classes de processus dont celle des processus à faibles coefficients. Ce travail permet également d'en déduire une méthode d'analyse de séries temporelles qui combine à la fois, l'approche par les autocorrélations et l'approche par les entropies, avec une visualisation par des méthodes factorielles. La méthode est appliquée à des trajectoires AR(2) et MA(2) simulées et fournit deux autres modèles factoriels de référence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Al, Sarray Basad. „Estimation et choix de modèle pour les séries temporelles par optimisation convexe“. Besançon, 2016. http://www.theses.fr/2016BESA2084.

Der volle Inhalt der Quelle
Annotation:
Les séries temporelles sont définies comme une séquence ordonnée d’observation à travers le temps. La structure des séries temporelles est représentée par la somme des composantes indépendantes. Généralement, ces composantes sont estimées indépendamment les unes des autres chaque composant fait partie d’une catégorie particulière. Les modèles Auto régressifs et Moyenne Mobile sont utilisées pour la modélisation des séries chronologiques il y a un grand nombre d’applications telle que le traitement du signal, la finance, l’imagerie médicale le radar, et la communication. […] Cette étude présente quelques-unes des méthodes d’apprentissage machine, et des méthodes convexes pour la sélection de modèle ARMA et l’estimation est basée sur la conversion des modèles ARMA-AR et des modèles ARMA aux modèle espace d’état. […]
[…] this study presents some of machine learning and convex methodes for ARMA model selection and estimation based on the conversion between ARMA –AR models and ARMA-State Space Models. Also in this study, for a time series decomposition and time series components analysis some of convex methods are implemented and simulated. The results show the ability of convex methods of analysing and modelling a given series
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Dilmi, Mohamed Djallel. „Méthodes de classification des séries temporelles : application à un réseau de pluviomètres“. Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS087.pdf.

Der volle Inhalt der Quelle
Annotation:
La question de l’impact du changement climatique sur l’évolution temporelle des précipitations ainsi que l’impact de l’ilot de chaleur parisien sur la répartition spatiale des précipitations motivent l’étude de la variabilité du cycle de l’eau à fine échelle en Île-de-France. Une façon d'analyser cette variabilité en utilisant les données d'un réseau de pluviomètres est d'effectuer une classification sur les séries temporelles mesurées par le réseau. Dans cette thèse, nous avons exploré deux approches pour la classification des séries temporelles : pour la première approche basée sur la description des séries par des caractéristiques, un algorithme de sélection des caractéristiques basé sur les algorithmes génétiques et les cartes topologiques a été proposé. Pour la deuxième approche basée sur la comparaison de formes, une mesure de dissimilarité (Itérative downscaling time warping) a été développée pour comparer deux séries temporelles. Ensuite les limites des deux approches ont été discutées et suivies d'une mise en place d'une approche mixte qui combine les avantages de chaque approche. L’approche a d’abord été appliquée à l’évaluation de la variabilité spatiale des précipitations. Pour l’évaluation de la variabilité temporelle des précipitations, une classification des événements de précipitation observés par une station a été réalisée puis étendue sur l’ensemble du réseau pluviométrique. L’application sur la série historique de Paris-Montsouris (1873-2015) permet de discriminer automatiquement les années « remarquables » d’un point de vue météorologique
The impact of climat change on the temporal evolution of precipitation as well as the impact of the Parisian heat island on the spatial distribution of précipitation motivate studying the varaibility of the water cycle on a small scale on île-de-france. one way to analyse this varaibility using the data from a rain gauge network is to perform a clustring on time series measured by this network. In this thesis, we have explored two approaches for time series clustring : for the first approach based on the description of series by characteristics, an algorithm for selecting characteristics based on genetic algorithms and topological maps has been proposed. for the second approach based on shape comparaison, a measure of dissimilarity (iterative downscaling time warping) was developed to compare two rainfall time series. Then the limits of the two approaches were discuddes followed by a proposition of a mixed approach that combine the advantages of each approach. The approach was first applied to the evaluation of spatial variability of precipitation on île-de-france. For the evaluation of the temporal variability of the precpitation, a clustring on the precipitation events observed by a station was carried out then extended on the whole rain gauge network. The application on the historical series of Paris-Montsouris (1873-2015) makes it possible to automatically discriminate "remarkable" years from a meteorological point of view
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Ziat, Ali Yazid. „Apprentissage de représentation pour la prédiction et la classification de séries temporelles“. Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066324/document.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Paquin, Jean. „Développement d'algorithmes pour l'analyse des séries temporelles des données de production d'eau potable“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0017/MQ56951.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Rhéaume, François. „Une méthode de machine à état liquide pour la classification de séries temporelles“. Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28815/28815.pdf.

Der volle Inhalt der Quelle
Annotation:
L'intérêt envers la neuroscience informatique pour les applications d'intelligence arti- cielle est motivé par plusieurs raisons. Parmi elles se retrouve la rapidité avec laquelle le domaine evolue, promettant de nouvelles capacités pour l'ingénieur. Dans cette thèse, une méthode exploitant les récents avancements en neuroscience informatique est présentée: la machine à état liquide (\liquid state machine"). Une machine à état liquide est un modèle de calcul de données inspiré de la biologie qui permet l'apprentissage sur des ux de données. Le modèle représente un outil prometteur de reconnaissance de formes temporelles. Déjà, il a démontré de bons résultats dans plusieurs applications. En particulier, la reconnaissance de formes temporelles est un problème d'intérêt dans les applications militaires de surveillance telle que la reconnaissance automatique de cibles. Jusqu'à maintenant, la plupart des machines à état liquide crées pour des problèmes de reconnaissance de formes sont demeurées semblables au modèle original. D'un point de vue ingénierie, une question se dégage: comment les machines à état liquide peuvent-elles être adaptées pour améliorer leur aptitude à solutionner des problèmes de reconnaissance de formes temporelles ? Des solutions sont proposées. La première solution suggèrée se concentre sur l'échantillonnage de l'état du liquide. À ce sujet, une méthode qui exploite les composantes fréquentielles du potentiel sur les neurones est définie. La combinaison de différents types de vecteurs d'état du liquide est aussi discutée. Deuxièmement, une méthode pour entrâner le liquide est développée. La méthode utilise la plasticité synaptique à modulation temporelle relative pour modeler le liquide. Une nouvelle approche conditionnée par classe de données est proposée, où différents réseaux de neurones sont entraînés exclusivement sur des classes particuli ères de données. Concernant cette nouvelle approche ainsi que celle concernant l'échantillonnage du liquide, des tests comparatifs ont été effectués avec l'aide de jeux de données simulées et réelles. Les tests permettent de constater que les méthodes présentées surpassent les méthodes conventionnelles de machine à état liquide en termes de taux de reconnaissance. Les résultats sont encore plus encourageants par le fait qu'ils ont été obtenus sans l'optimisation de plusieurs paramètres internes pour les differents jeux de données testés. Finalement, des métriques de l'état du liquide ont été investiguées pour la prédiction de la performance d'une machine à état liquide.
There are a number of reasons that motivate the interest in computational neuroscience for engineering applications of artificial intelligence. Among them is the speed at which the domain is growing and evolving, promising further capabilities for artificial intelligent systems. In this thesis, a method that exploits the recent advances in computational neuroscience is presented: the liquid state machine. A liquid state machine is a biologically inspired computational model that aims at learning on input stimuli. The model constitutes a promising temporal pattern recognition tool and has shown to perform very well in many applications. In particular, temporal pattern recognition is a problem of interest in military surveillance applications such as automatic target recognition. Until now, most of the liquid state machine implementations for spatiotemporal pattern recognition have remained fairly similar to the original model. From an engineering perspective, a challenge is to adapt liquid state machines to increase their ability for solving practical temporal pattern recognition problems. Solutions are proposed. The first one concentrates on the sampling of the liquid state. In this subject, a method that exploits frequency features of neurons is defined. The combination of different liquid state vectors is also discussed. Secondly, a method for training the liquid is developed. The method implements synaptic spike-timing dependent plasticity to shape the liquid. A new class-conditional approach is proposed, where different networks of neurons are trained exclusively on particular classes of input data. For the suggested liquid sampling methods and the liquid training method, comparative tests were conducted with both simulated and real data sets from different application areas. The tests reveal that the methods outperform the conventional liquid state machine approach. The methods are even more promising in that the results are obtained without optimization of many internal parameters for the different data sets. Finally, measures of the liquid state are investigated for predicting the performance of the liquid state machine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Desrosiers, Maxime. „Le prix du risque idiosyncrasique : une analyse en séries temporelles et coupe transversale“. Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67076.

Der volle Inhalt der Quelle
Annotation:
Le CAPM est une représentation stylisée de la rentabilité attendue des titres sur les marchés boursiers, mais comme plusieurs des hypothèses centrales du modèle ne tiennent pas lors d’analyses empiriques, sa pertinence en ce qui a trait aux paramètres prisés sur les marchés est limitée. L’objectif de ce mémoire est d’analyser s’il y a présence d’une prime de risque idiosyncrasique, de mesurer celle-ci et de voir si elle a un pouvoir explicatif significatif. Nous trouvons que les titres ayant les plus hauts risques idiosyncrasiques obtiennent des rendements le mois suivant de 1,18 à 1,98 point de pourcentage inférieur aux titres les moins risqués. En contrôlant pour la capitalisation boursière, l’effet persiste et le risque idiosyncrasique semble être un meilleur prédicteur du rendement d’une firme que la taille de celle-ci.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Boughrara, Adel. „Sur la modélisation dynamique retrospective et prospective des séries temporelles : une étude méthodologique“. Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX32054.

Der volle Inhalt der Quelle
Annotation:
Le propos de cette these est une evaluation critique des methodes de rapprochement entre les faits et la theorie economique. Il s'agit plus precisement, de questionner les methodes econometriques actuellement en vigueur relativement a l'epistemologie scientifique. Nous avons considere dans ce travail deux strategies de modelisation : celle, dite prospective de hansen- sargent et celle, dite retrospective, de hendry- sargan. Nous avons montre que, contrairement a ce qu'on a tendance a croire, la modelisation retrospective de hendry-sargan n'est pas conforme a la philosophie falsificationniste de popper. La notion de rejet de modele est fallacieusement interpretee comme refutation. Le recours excessif aux tests d'hypotheses ne permet pas de conclure que cette strategie est popperienne. Les tests sont plutot utilises dans l'espoir d'elaborer des modeles "admissibles" conformement a la methodologie positiviste. S'agissant de la strategie prospective, son fondement epistemologique est relativement difficile a identifier : elle n'est pas falsificationniste puisque les donnees sont censees conforter la theorie et non la refuter. Mieux, le role des donnees de l'observation est mal defini dans cette strategie de modelisation, en particulier lorsqu'il s'agit d'adopter la methode de calibration pour valider le modele
The past years have witnessed intensive competition among economic and econometric methodologies attempting to explain macroeconomic behaviour. Alternative schools have made claims with respect both to the purity of their methodology and to their ability to explain the facts. This thesis investigates the epistemological foundations of the major competitors, namely, the new classical school with its links to prospective econometric modelling on the one hand, and the retrospective modelling which is more close to inductive methods, on the other hand. The main conclusion of the thesis is that none of the rival schools has a very tight link with the popperien epistemology of falsificationism
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Ouerfelli, Chokri. „La saisonnalité dans les séries temporelles : étude théorique et appliquée au tourisme tunisien“. Dijon, 1999. http://www.theses.fr/1999DIJOE003.

Der volle Inhalt der Quelle
Annotation:
L'étude de la non stationnarité des séries saisonnières a montré que la saisonnalité est de nature déterministe et/ou stochastique et peut être à l'origine des variations observées d'une série économique. Ceci a permis d'établir que les méthodes officielles d'ajustement conduisent à de sévères distorsions des données. Ainsi, la saisonnalité ne doit pas être traitée comme un phénomène isolé ; elle peut transmettre de l'information sur les comportements des agents économiques. Nous avons jugé utile de l'intégrer dans notre analyse empirique des séries touristiques. Cela revient donc à analyser les mécanismes qui régissent le comportement saisonnier de l'activité touristique. Nous avons spécifié la nature des comportements saisonniers de la demande de séjours en utilisant des outils récents de l'analyse des séries temporelles mensuelles. Des séries brutes en logarithme (dépenses touristiques, prix, revenu, nombre de nuitées, capacité d'accueil,. . . ) sont étudiées dans le cadre de la théorie classique de la demande et la théorie de la demande induite par l'offre. Les résultats de tests de racines unitaires montrent que la plupart des séries sont engendrées par des processus non stationnaires dont la saisonnalité est d'origine à la fois déterministe et stochastique. La procédure de Lee (1992) a permis de mettre en évidence l'existence de relations de cointégration à certaines fréquences. Les modèles à correction d'erreur ont été déduits pour les variables endogènes. D'autres méthodologies de modélisation permettant d'appréhender la variabilité des séries touristiques ont été proposées. Nous avons retenu l'approche de Harvey (1990) et l'approche classique de Box et Jenkins (1976). Les formes réduites de ces spécifications, basées sur des tests fiables de vérification, ont montré leur aptitude à représenter pertinemment la demande touristique. La comparaison de ces différents modèles a contribué amplement à affiner les résultats empiriques notamment en ce qui concerne le calcul des élasticités de la demande par rapport aux variables explicatives, et à améliorer la précision des prévisions qui en découlent
The study of seasonal non stationary time series showed a deterministic and/or stochastic seasonality which may be the origin of observable variations of economic time series. It establishes that official seasonal adjustment methods lead to severe distortions of data. Then, seasonality must not be considered as an independent phenomena ; it can transmit information about economic agents behaviours. We judged necessary to include seasonality in our empirical analysis of tourist time series. This means to analyse the mechanisms of seasonal behaviours tourist activity. We have specified the nature of seasonal behaviour of stay demand with recent tools of monthly time series analysis. Raw data in logarithm (tourist expenditures, price, income, guest- nights, reception capacity,. . . ) Are studied in the context of classic theory of demand and supply- induced demand theory. The results of unit root tests show that most of tourist series were generated by non stationary process where seasonality is both stochastic and deterministic. Lee's (1992) strategy allows to estimate cointegrating relations at several frequencies. Error correction models were derived for endogenous variables. Another modelling methodologies, allow to apprehend tourist series variability, were proposed. We retained Harvey's (1990) structural time-series modelling approach and box and Jenkins (1976) arima models. Specifications reduced forms, based on diagnostic checking tests, showed their ability to adequacy fit tourist demand. The comparison of different models were amply contributed to refine empirical results especially for demand elasticity to explanatory variables, and to improve the forecasting accuracy of results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Hassnaoui, Mohamed. „Méthodes non paramétriques d'analyse des séries temporelles fortement bruitées : application à la chronobiologie“. Saint-Etienne, 1999. http://www.theses.fr/1999STET4005.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour ambition de faire une étude critique des méthodes d'analyse des séries temporelles en biologie et de proposer une nouvelle méthode non paramétrique, la méthode de concordance. Les concepts élémentaires et le cadre général de l'acquisition des données en chronobiologie sont rappelés. Une analyse par l'outil graphique, adapté aux données chronobiologiques, est exposée. Des méthodes probabilistes pour la modélisation des rythmes biologiques sont proposées. Le mot rythme préjuge d'une notion de périodicité. Le point essentiel de notre travail est donc la recherche de périodes dans les séries chronologiques. Nous avons passé en revue les méthodes existantes pour la recherche de périodes : - l'analyse harmonique a été utilisée pendant longtemps par les chronobiologistes : elle a pour principe la recherche de la sinusoïde qui se rapproche le plus des points expérimentaux. - des méthodes simples (Whittaker et Robinson, 1924), ont été adaptées aux données biologiques depuis la publication des travaux d'Enright (1965). La recherche de période se fait en repliant la suite d'observations plusieurs fois sur elle-même selon le principe du Buijs-Ballot. Dorrscheidt et Beck (1976) puis Sokolove et Bushell (1978) ont proposé des tests statistiques qui permettent des conclusions rigoureuses. Les avantages et les limites de ces techniques sont examinés. Limites dues à la nature des séries étudiées : courtes, non stationnaires et fortement bruitées. Ces limitations nous ont conduit à proposer une nouvelle méthode de recherche de périodes : la méthode de concordance. Elle a pour principe de chercher des similitudes entre la série d'origine et ses translatées par un décalage de pas. C'est un outil non paramétrique, applicable à des séries qualitatives. Il permet de traiter simultanément les rythmes ultradiens et les rythmes circadiens. Les phénomènes de transition nécessitent des outils des systèmes dynamiques. La mise en oeuvre de la méthode Grassberger et Procaccia (1983), sur un exemple de données expérimentales, nous a permis de choisir entre un modèle purement aléatoire et un modèle déterministe chaotique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Guerre, Emmanuel. „Méthode non paramétriques d'analyse des séries temporelles multivariées : estimation de mesures de dépendances“. Paris 6, 1993. http://www.theses.fr/1993PA066110.

Der volle Inhalt der Quelle
Annotation:
Dans un premier chapitre, on presente differentes hypotheses permettant, si elles sont verifiees, d'obtenir de meilleures vitesses de convergence pour des estimateurs utilisant ces proprietes. Les deux chapitres suivants s'interessent a l'estimation de mesures caracterisant ces hypotheses de dependance: on etudie la convergence presque sure et la loi limite d'estimateurs non parametriques de contrastes de kullback. Le dernier chapitre s'interesse a un probleme different, de choix de modeles. On propose des tests pour determiner si une marche aleatoire est de type geometrique ou arithmetique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Ailliot, Pierre. „Modèles autorégressifs à changements de régimes markoviens. Applications aux séries temporelles de vent“. Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00007602.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, plusieurs modèles originaux, utilisant les modèles autorégressifs à changements de régimes markoviens, sont proposés pour les séries temporelles de vent. L'étude théorique de ces modèles fait l'objet du premier chapitre. Nous abordons en particulier les problèmes du calcul numérique des estimateurs du maximum de vraisemblance, de l'étude de leurs comportements asymptotiques ainsi que celui de la validation de modèle. Dans le deuxième chapitre, nous proposons divers modèles autorégressifs à changements de régimes markoviens permettant de décrire l'évolution du vent en un point fixé, puis dans le troisième chapitre son évolution spatio-temporelle. Pour chacun des modèles proposés, nous vérifions l'interprétabilité météorologique des différents paramètres et leur capacité à simuler des nouvelles séquences artificielles réalistes. Ces résultats sont comparés avec ceux correspondant aux modèles usuellement utilisés dans la littérature.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Cherif, Aymen. „Réseaux de neurones, SVM et approches locales pour la prévision de séries temporelles“. Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4003/document.

Der volle Inhalt der Quelle
Annotation:
La prévision des séries temporelles est un problème qui est traité depuis de nombreuses années. On y trouve des applications dans différents domaines tels que : la finance, la médecine, le transport, etc. Dans cette thèse, on s’est intéressé aux méthodes issues de l’apprentissage artificiel : les réseaux de neurones et les SVM. On s’est également intéressé à l’intérêt des méta-méthodes pour améliorer les performances des prédicteurs, notamment l’approche locale. Dans une optique de diviser pour régner, les approches locales effectuent le clustering des données avant d’affecter les prédicteurs aux sous ensembles obtenus. Nous présentons une modification dans l’algorithme d’apprentissage des réseaux de neurones récurrents afin de les adapter à cette approche. Nous proposons également deux nouvelles techniques de clustering, la première basée sur les cartes de Kohonen et la seconde sur les arbres binaires
Time series forecasting is a widely discussed issue for many years. Researchers from various disciplines have addressed it in several application areas : finance, medical, transportation, etc. In this thesis, we focused on machine learning methods : neural networks and SVM. We have also been interested in the meta-methods to push up the predictor performances, and more specifically the local models. In a divide and conquer strategy, the local models perform a clustering over the data sets before different predictors are affected into each obtained subset. We present in this thesis a new algorithm for recurrent neural networks to use them as local predictors. We also propose two novel clustering techniques suitable for local models. The first is based on Kohonen maps, and the second is based on binary trees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Cuenca, Pauta Erick. „Visualisation de données dynamiques et complexes : des séries temporelles hiérarchiques aux graphes multicouches“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS054/document.

Der volle Inhalt der Quelle
Annotation:
L'analyse de données de plus en plus complexes, volumineuses et issues de différentes sources (e.g. internet, médias sociaux, etc.) est une tâche difficile. Elle reste cependant cruciale dans de très nombreux domaines d'application. Elle implique, pour pouvoir en extraire des connaissances, de mieux comprendre la nature des données, leur évolution ou les nombreuses relations complexes qu'elles peuvent contenir. La visualisation d'informations s'intéresse aux méthodes de représentations visuelles et interactives permettant d'aider un utilisateur à extraire des connaissances. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous nous intéressons à la visualisation de longues séries temporelles hiérarchiques. Après avoir analysé les différentes approches existantes, nous présentons le système MultiStream permettant de visualiser, explorer et comparer l'évolution de séries organisées dans une structure hiérarchique. Nous illustrons son utilisation par deux exemples d'utilisation : émotions exprimées dans des médias sociaux et évolution des genres musicaux. Dans un second temps nous abordons la problématique de données complexes modélisées sous la forme de graphes multicouches (différentes types d'arêtes peuvent relier les n÷uds). Plus particulièrement nous nous intéressons au requêtage visuel de graphes volumineux en présentant VERTIGo un système qui permet de construire des requêtes, d'interroger un moteur spécifique, de visualiser/explorer les résultats à différentes niveaux de détail et de suggérer de nouvelles extensions de requêtes. Nous illustrons son utilisation à l'aide d'un graphe d'auteurs provenant de différentes communautés
The analysis of data that is increasingly complex, large and from different sources (e.g. internet, social medias, etc.) is a dificult task. However, it remains crucial for many fields of application. It implies, in order to extract knowledge, to better understand the nature of the data, its evolution or the many complex relationships it may contain. Information visualization is about visual and interactive representation methods to help a user to extract knowledge. The work presented in this document takes place in this context. At first, we are interested in the visualization of large hierarchical time series. After analyzing the different existing approaches, we present the MultiStream system for visualizing, exploring and comparing the evolution of the series organized into a hierarchical structure. We illustrate its use by two examples: emotions expressed in social media and the evolution of musical genres. In a second time, we tackle the problem of complex data modeled in the form of multilayer graphs (different types of edges can connect the nodes). More specifically, we are interested in the visual querying of large graphs and we present VERTIGo, a system which makes it possible to build queries, to launch them on a specific engine, to visualize/explore the results at different levels of details and to suggest new query extensions. We illustrate its use with a graph of co-authors from different communities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Sànchez, Pérez Andrés. „Agrégation de prédicteurs pour des séries temporelles, optimalité dans un contexte localement stationnaire“. Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0051/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse regroupe nos résultats sur la prédiction de séries temporelles dépendantes. Le document comporte trois chapitres principaux où nous abordons des problèmes différents. Le premier concerne l’agrégation de prédicteurs de décalages de Bernoulli Causales, en adoptant une approche Bayésienne. Le deuxième traite de l’agrégation de prédicteurs de ce que nous définissions comme processus sous-linéaires. Une attention particulaire est portée aux processus autorégressifs localement stationnaires variables dans le temps, nous examinons un schéma de prédiction adaptative pour eux. Dans le dernier chapitre nous étudions le modèle de régression linéaire pour une classe générale de processus localement stationnaires
This thesis regroups our results on dependent time series prediction. The work is divided into three main chapters where we tackle different problems. The first one is the aggregation of predictors of Causal Bernoulli Shifts using a Bayesian approach. The second one is the aggregation of predictors of what we define as sub-linear processes. Locally stationary time varying autoregressive processes receive a particular attention; we investigate an adaptive prediction scheme for them. In the last main chapter we study the linear regression problem for a general class of locally stationary processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Morel, Marion. „Modélisation de séries temporelles multidimensionnelles. Application à l'évaluation générique et automatique du geste sportif“. Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066235/document.

Der volle Inhalt der Quelle
Annotation:
Qu'il tente de prévenir la chute d'une personne âgée, de traduire la langue des signes ou de contrôler un humain virtuel, l'analyse de gestes est un vaste domaine de recherche qui s'attelle à reconnaître, classifier, segmenter, indexer ou encore évaluer différents types de mouvements. Cependant, peu de travaux se concentrent sur cette dernière approche d'évaluation. Ce travail de thèse propose de mettre en place un outil d’évaluation automatique et générique d’un geste sportif, reposant sur l’utilisation d’une base de données de gestes experts acquis via un système de capture de mouvements. Afin d’extraire un mouvement de référence, l’algorithme de déformation temporelle dynamique (DTW) est considéré pour aligner puis moyenner les gestes. Les méthodes d’alignements et de moyennage de séries temporelles se confrontant aux conséquences néfastes de chemins de déformation du DTW pathologiques, des contraintes locales sont ajoutées et donnent lieu à un nouvel algorithme appelé CDBA. La qualité d’un geste est estimée spatialement et temporellement à chaque instant et pour chaque membre par comparaison avec le geste de référence et pondérée par la dispersion des données expertes autour de ce geste moyen. Le processus ainsi mis en place est validé à partir de gestes de karaté et de tennis annotés par des entraîneurs. Un premier prototype d’outil d’entraînement en ligne est finalement proposé et laisse entrevoir les potentialités d’usage qui pourraient être menées à la suite de ce travail
Either to reduce falling risks in elderly people, to translate the sign language or to control a virtual human being, gesture analysis is thriving research field that aims at recognizing, classifying, segmenting, indexing and evaluating different types of motions. As few studies tackle the evaluation process, this PhD focuses on the design of an autonomous system for the generic evaluation of sport-related gestures. The tool is trained on the basis of experts’ motions recorded with a motion capture system. Dynamic Time Warping (DTW) is deployed to obtain a reference gesture thanks to data alignment and averaging. Nevertheless, this standard method suffers from pathological paths issues that reduce its effectiveness. For this reason, local constraints are added to the new DTW-based algorithm, called CDBA (Constrained DTW Barycenter Averaging). At each time step and for each limb, the quality of a gesture is spatially and temporally assessed. Each new motion is compared to the reference gesture and weighted in terms of data dispersion around the reference.The process is validated on annotated karate and tennis databases. A first online training prototype is given in order to prompt further research on this subject
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie