To see the other types of publications on this topic, follow the link: Classification de séries.

Dissertations / Theses on the topic 'Classification de séries'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Classification de séries.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bailly, Adeline. "Classification de séries temporelles avec applications en télédétection." Thesis, Rennes 2, 2018. http://www.theses.fr/2018REN20021/document.

Full text
Abstract:
La classification de séries temporelles a suscité beaucoup d’intérêt au cours des dernières années en raison de ces nombreuses applications. Nous commençons par proposer la méthode Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) qui utilise des descripteurs locaux basés sur la méthode SIFT, adaptés pour les données en une dimension et extraits à intervalles réguliers. Des expériences approfondies montrent que notre méthode D-BoTSW surpassent de façon significative presque tous les classificateurs de référence comparés. Ensuite, nous proposons un nouvel algorithmebasé sur l’algorithme Learning Time Series Shapelets (LTS) que nous appelons Adversarially- Built Shapelets (ABS). Cette méthode est basée sur l’introduction d’exemples adversaires dans le processus d’apprentissage de LTS et elle permet de générer des shapelets plus robustes. Des expériences montrent une amélioration significative de la performance entre l’algorithme de base et notre proposition. En raison du manque de jeux de données labelisés, formatés et disponibles enligne, nous utilisons deux jeux de données appelés TiSeLaC et Brazilian-Amazon
Time Series Classification (TSC) has received an important amount of interest over the past years due to many real-life applications. In this PhD, we create new algorithms for TSC, with a particular emphasis on Remote Sensing (RS) time series data. We first propose the Dense Bag-of-Temporal-SIFT-Words (D-BoTSW) method that uses dense local features based on SIFT features for 1D data. Extensive experiments exhibit that D-BoTSW significantly outperforms nearly all compared standalone baseline classifiers. Then, we propose an enhancement of the Learning Time Series Shapelets (LTS) algorithm called Adversarially-Built Shapelets (ABS) based on the introduction of adversarial time series during the learning process. Adversarial time series provide an additional regularization benefit for the shapelets and experiments show a performance improvementbetween the baseline and our proposed framework. Due to the lack of available RS time series datasets,we also present and experiment on two remote sensing time series datasets called TiSeLaCand Brazilian-Amazon
APA, Harvard, Vancouver, ISO, and other styles
2

Jebreen, Kamel. "Modèles graphiques pour la classification et les séries temporelles." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0248/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons aux méthodes de classifications supervisées utilisant les réseaux bayésiens. L'avantage majeur de ces méthodes est qu'elles peuvent prendre en compte les interactions entre les variables explicatives. Dans une première partie nous proposons une procédure de discrétisation spécifique et une procédure de sélection de variables qui permettent d'améliorer considérablement les classifieurs basés sur des réseaux bayésiens. Cette procédure a montré de très bonnes performances empiriques sur un grand choix de jeux de données connus de l’entrepôt d'apprentissage automatique (UCI Machine Learning repository). Une application pour la prévision de type d’épilepsie à partir de de caractéristiques des patients extraites des images de Tomographie par émission de positrons (TEP) confirme l’efficacité de notre approche comparé à des approches communes de classifications supervisées. Dans la deuxième partie de cette thèse nous nous intéressons à la modélisation des interactions entre des variables dans le contexte de séries chronologiques en grande dimension. Nous avons proposé deux nouvelles approches. La première, similaire à la technique "neighborhood Lasso" remplace la technique Lasso par des machines à vecteurs de supports. La deuxième approche est un réseau bayésien restreint: les variables observées à chaque instant et à l’instant précédent sont utilisées dans un réseau dont la structure est restreinte. Nous montrons l’efficacité de ces approches par des simulations utilisant des donnés simulées issues de modèles linéaires, non-linéaires et un mélange des deux
First, in this dissertation, we will show that Bayesian networks classifiers are very accurate models when compared to other classical machine learning methods. Discretising input variables often increase the performance of Bayesian networks classifiers, as does a feature selection procedure. Different types of Bayesian networks may be used for supervised classification. We combine such approaches together with feature selection and discretisation to show that such a combination gives rise to powerful classifiers. A large choice of data sets from the UCI machine learning repository are used in our experiments, and the application to Epilepsy type prediction based on PET scan data confirms the efficiency of our approach. Second, in this dissertation we also consider modelling interaction between a set of variables in the context of time series and high dimension. We suggest two approaches; the first is similar to the neighbourhood lasso where the lasso model is replaced by Support Vector Machines (SVMs); the second is a restricted Bayesian network for time series. We demonstrate the efficiency of our approaches simulations using linear and nonlinear data set and a mixture of both
APA, Harvard, Vancouver, ISO, and other styles
3

Jean, Sandrine. "Classification à conjugaison près des séries de p-torsion." Limoges, 2008. https://aurore.unilim.fr/theses/nxfile/default/730bf760-8418-47c7-bec5-45796c5d7e8f/blobholder:0/2008LIMO4011.pdf.

Full text
Abstract:
Selon la version de Green-Matignon de la conjecture de F. Oort, toute série d'ordre pn peut être relevée en une série de même ordre dont les coefficients sont entiers sur une extension convenable de Qp. Il est donc nécessaire de relever une série de chaque classe de conjugaison pour pouvoir relever l'ensemble des séries formelles d'ordre pn. C'est pourquoi, nous avons étudier dans ce travail les classes de conjugaison des séries d'ordre pn à coefficients dans la clôture algébrique Fpalg de Fp. Le premier chapitre est consacré aux rappels concernant les corps locaux et en particulier sur les corps locaux de caractéristique p. Dans le deuxième chapitre, nous donnons une démonstration au théorème de B. Klopsch qui donne les classes de conjugaison des séries d'ordre p dans le cas où le corps résiduel est parfait. Le troisième chapitre est dédié aux vecteurs de Witt et donne une réduction possible de ses vecteurs. Puis, dans le quatrième chapitre, nous utilisons les vecteurs de Witt de longueur n qui, grâce à la théorie d'Artin-Schreier-Witt déterminent les extensions de corps de degré pn. Dans le cinquième chapitre, nous utilisons l'équivalence entre endomorphismes et séries pour construire la première bijection établie entre un ensemble An de vecteurs de Witt et une caractérisation des extensions de degré pn de K. La seconde bijection permet, grâce à une certaine action de groupe, d'établir une correspondance entre les classes de conjugaison d'ordre pn et les orbites de An sous cette action. C'est ce que nous établissons dans le chapitre six. Pour finir, dans le dernier chapitre, nous donnons deux calculs, l'un utilisant la théorie de Lubin-Tate et l'autre la théorie d'Artin-Schreier-Witt, permettant d'obtenir une écriture explicite de séries d'ordre 4 pour la conjugaison
According to Green-Matignon's version of the conjecture of F. Oort, any series of order pn can be lifted up by a série of the same order which coefficients are integer in a certain extension of Qp. So it is necessary to lift a series of every conjugacy class to lift all formal power series of order pn. That is why, we have studied, in this report, conjugacy classes of formal power series of order pn with coefficients in the algebraic closure Fpalg de Fp. The first chapter is dedicated to recalls on locals fields and especially local fields of characteristc p. In the second chapter, we give a second proof of the theorem of B. Klopsch which states the conjugacy classes of series of order p when the residue field is perfect. The third chapter is dedicated to Witt vectors and gives a reduction of these vectors. Then, in the fourth chapter, we use Witt vectors of length n which, thanks to Artin-Schreier-Witt theory, determined any extensions of degree pn. In the fifth chapter, we use the equivalence between endomorphisms and formal power series to construct the first bijection which states a link between a set An of Witt vectors and a certain characterization of extension of degree pn of K. The second bijection permits, thanks to a certain action of group to get a correspondence between conjugacy classes of order pn and the orbits of An under this action. This is this bijection we will build in the sixth chapter. Finally, in the last chapter, we give two calculations, the first one using the Lubin-Tate theory and the second one Artin-Schreier-Witt theory, to get an explicit writting of series of order 4 for he conjugation law
APA, Harvard, Vancouver, ISO, and other styles
4

Caiado, Aníbal Jorge da Costa Cristóvão. "Distance-based methods for classification and clustering of time series." Doctoral thesis, Instituto Superior de Economia e Gestão, 2006. http://hdl.handle.net/10400.5/3531.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Renard, Xavier. "Time series representation for classification : a motif-based approach." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066593.

Full text
Abstract:
Nos travaux décrits dans cette thèse portent sur l’apprentissage d’une représentation pour la classification automatique basée sur la découverte de motifs à partir de séries temporelles. L’information pertinente contenue dans une série temporelle peut être encodée temporellement sous forme de tendances, de formes ou de sous-séquences contenant habituellement des distorsions. Des approches ont été développées pour résoudre ces problèmes souvent au prix d’une importante complexité calculatoire. Parmi ces techniques nous pouvons citer les mesures de distance et les représentations de l’information contenue dans les séries temporelles. Nous nous concentrons sur la représentation de l’information contenue dans les séries temporelles. Nous proposons un cadre (framework) pour générer une nouvelle représentation de séries temporelles basée sur la découverte automatique d’ensembles discriminants de sous-séquences. Cette représentation est adaptée à l’utilisation d’algorithmes de classification classiques basés sur des attributs. Le framework proposé transforme un ensemble de séries temporelles en un espace d’attributs (feature space) à partir de sous-séquences énumérées des séries temporelles, de mesures de distance et de fonctions d’agrégation. Un cas particulier de ce framework est la méthode notoire des « shapelets ». L’inconvénient potentiel d’une telle approache est le nombre très important de sous-séquences à énumérer en ce qu’il induit un très grand feature space, accompagné d’une très grande complexité calculatoire. Nous montrons que la plupart des sous-séquences présentes dans un jeu de données composé de séries temporelles sont redondantes. De ce fait, un sous-échantillonnage aléatoire peut être utilisé pour générer un petit sous-ensemble de sous-séquences parmi l’ensemble exhaustif, en préservant l’information nécessaire pour la classification et tout en produisant un feature space de taille compatible avec l’utilisation d’algorithmes d’apprentissage automatique de l’état de l’art avec des temps de calculs raisonnable. On démontre également que le nombre de sous-séquences à tirer n’est pas lié avec le nombre de séries temporelles présent dans l’ensemble d’apprentissage, ce qui garantit le passage à l’échelle de notre approche. La combinaison de cette découverte dans le contexte de notre framework nous permet de profiter de techniques avancées (telles que des méthodes de sélection d’attributs multivariées) pour découvrir une représentation de séries temporelles plus riche, en prenant par exemple en considération les relations entre sous-séquences. Ces résultats théoriques ont été largement testés expérimentalement sur une centaine de jeux de données classiques de la littérature, composés de séries temporelles univariées et multivariées. De plus, nos recherches s’inscrivant dans le cadre d’une convention de recherche industrielle (CIFRE) avec Arcelormittal, nos travaux ont été appliqués à la détection de produits d’acier défectueux à partir des mesures effectuées par les capteurs sur des lignes de production
Our research described in this thesis is about the learning of a motif-based representation from time series to perform automatic classification. Meaningful information in time series can be encoded across time through trends, shapes or subsequences usually with distortions. Approaches have been developed to overcome these issues often paying the price of high computational complexity. Among these techniques, it is worth pointing out distance measures and time series representations. We focus on the representation of the information contained in the time series. We propose a framework to generate a new time series representation to perform classical feature-based classification based on the discovery of discriminant sets of time series subsequences (motifs). This framework proposes to transform a set of time series into a feature space, using subsequences enumerated from the time series, distance measures and aggregation functions. One particular instance of this framework is the well-known shapelet approach. The potential drawback of such an approach is the large number of subsequences to enumerate, inducing a very large feature space and a very high computational complexity. We show that most subsequences in a time series dataset are redundant. Therefore, a random sampling can be used to generate a very small fraction of the exhaustive set of subsequences, preserving the necessary information for classification and thus generating a much smaller feature space compatible with common machine learning algorithms with tractable computations. We also demonstrate that the number of subsequences to draw is not linked to the number of instances in the training set, which guarantees the scalability of the approach. The combination of the latter in the context of our framework enables us to take advantage of advanced techniques (such as multivariate feature selection techniques) to discover richer motif-based time series representations for classification, for example by taking into account the relationships between the subsequences. These theoretical results have been extensively tested on more than one hundred classical benchmarks of the literature with univariate and multivariate time series. Moreover, since this research has been conducted in the context of an industrial research agreement (CIFRE) with Arcelormittal, our work has been applied to the detection of defective steel products based on production line's sensor measurements
APA, Harvard, Vancouver, ISO, and other styles
6

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066324/document.

Full text
Abstract:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
APA, Harvard, Vancouver, ISO, and other styles
7

Dilmi, Mohamed Djallel. "Méthodes de classification des séries temporelles : application à un réseau de pluviomètres." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS087.pdf.

Full text
Abstract:
La question de l’impact du changement climatique sur l’évolution temporelle des précipitations ainsi que l’impact de l’ilot de chaleur parisien sur la répartition spatiale des précipitations motivent l’étude de la variabilité du cycle de l’eau à fine échelle en Île-de-France. Une façon d'analyser cette variabilité en utilisant les données d'un réseau de pluviomètres est d'effectuer une classification sur les séries temporelles mesurées par le réseau. Dans cette thèse, nous avons exploré deux approches pour la classification des séries temporelles : pour la première approche basée sur la description des séries par des caractéristiques, un algorithme de sélection des caractéristiques basé sur les algorithmes génétiques et les cartes topologiques a été proposé. Pour la deuxième approche basée sur la comparaison de formes, une mesure de dissimilarité (Itérative downscaling time warping) a été développée pour comparer deux séries temporelles. Ensuite les limites des deux approches ont été discutées et suivies d'une mise en place d'une approche mixte qui combine les avantages de chaque approche. L’approche a d’abord été appliquée à l’évaluation de la variabilité spatiale des précipitations. Pour l’évaluation de la variabilité temporelle des précipitations, une classification des événements de précipitation observés par une station a été réalisée puis étendue sur l’ensemble du réseau pluviométrique. L’application sur la série historique de Paris-Montsouris (1873-2015) permet de discriminer automatiquement les années « remarquables » d’un point de vue météorologique
The impact of climat change on the temporal evolution of precipitation as well as the impact of the Parisian heat island on the spatial distribution of précipitation motivate studying the varaibility of the water cycle on a small scale on île-de-france. one way to analyse this varaibility using the data from a rain gauge network is to perform a clustring on time series measured by this network. In this thesis, we have explored two approaches for time series clustring : for the first approach based on the description of series by characteristics, an algorithm for selecting characteristics based on genetic algorithms and topological maps has been proposed. for the second approach based on shape comparaison, a measure of dissimilarity (iterative downscaling time warping) was developed to compare two rainfall time series. Then the limits of the two approaches were discuddes followed by a proposition of a mixed approach that combine the advantages of each approach. The approach was first applied to the evaluation of spatial variability of precipitation on île-de-france. For the evaluation of the temporal variability of the precpitation, a clustring on the precipitation events observed by a station was carried out then extended on the whole rain gauge network. The application on the historical series of Paris-Montsouris (1873-2015) makes it possible to automatically discriminate "remarkable" years from a meteorological point of view
APA, Harvard, Vancouver, ISO, and other styles
8

Ziat, Ali Yazid. "Apprentissage de représentation pour la prédiction et la classification de séries temporelles." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066324.

Full text
Abstract:
Nous nous intéressons au développement de méthodes qui répondent aux difficultés posées par l’analyse des séries temporelles. Nos contributions se focalisent sur deux tâches : la prédiction de séries temporelles et la classification de séries temporelles. Notre première contribution présente une méthode de prédiction et de complétion de séries temporelles multivariées et relationnelles. Le but est d’être capable de prédire simultanément l’évolution d’un ensemble de séries temporelles reliées entre elles selon un graphe, ainsi que de compléter les valeurs manquantes dans ces séries (pouvant correspondre par exemple à une panne d’un capteur pendant un intervalle de temps donné). On se propose d’utiliser des techniques d’apprentissage de représentation pour prédire l’évolution des séries considérées tout en complétant les valeurs manquantes et prenant en compte les relations qu’il peut exister entre elles. Des extensions de ce modèle sont proposées et décrites : d’abord dans le cadre de la prédiction de séries temporelles hétérogènes puis dans le cas de la prédiction de séries temporelles avec une incertitude exprimée. Un modèle de prédiction de séries spatio-temporelles est ensuiteproposé, avec lequel les relations entre les différentes séries peuvent être exprimées de manière plus générale, et où ces dernières peuvent être apprises.Enfin, nous nous intéressons à la classification de séries temporelles. Un modèle d’apprentissage joint de métrique et de classification de séries est proposé et une comparaison expérimentale est menée
This thesis deals with the development of time series analysis methods. Our contributions focus on two tasks: time series forecasting and classification. Our first contribution presents a method of prediction and completion of multivariate and relational time series. The aim is to be able to simultaneously predict the evolution of a group of time series connected to each other according to a graph, as well as to complete the missing values ​​in these series (which may correspond for example to a failure of a sensor during a given time interval). We propose to use representation learning techniques to forecast the evolution of the series while completing the missing values ​​and taking into account the relationships that may exist between them. Extensions of this model are proposed and described: first in the context of the prediction of heterogeneous time series and then in the case of the prediction of time series with an expressed uncertainty. A prediction model of spatio-temporal series is then proposed, in which the relations between the different series can be expressed more generally, and where these can be learned.Finally, we are interested in the classification of time series. A joint model of metric learning and time-series classification is proposed and an experimental comparison is conducted
APA, Harvard, Vancouver, ISO, and other styles
9

Esling, Philippe. "Multiobjective time series matching and classification." Paris 6, 2012. http://www.theses.fr/2012PA066704.

Full text
Abstract:
Plusieurs millions d’années d’évolution génétique ont façonné notre système auditif, permettant d’effectuer une discrimination flexible des événements acoustiques. Nous pouvons ainsi traiter simultanément plusieurs échelles de perception contradictoires de manière multidimensionnelle. De plus, nous avons une capacité à extraire une structure cohérente à partir de formes temporelles. Nous montrons qu’en émulant ces mécanismes dans nos choix algorithmiques, nous pouvons créer des approches efficaces de recherche et classification, dépassant le cadre des problématiques musicales. Nous introduisons ainsi le problème de MultiObjective Time Series (MOTS) et proposons un algorithme efficace pour le résoudre. Nous introduisons deux paradigmes innovants de recherche sur les fichiers audio. Nous introduisons un nouveau paradigme de classification basé sur la domination d'hypervolume, appelé HyperVolume-MOTS (HV-MOTS). Ce système étudie le comportement de la classe entière par sa distribution et sa diffusion sur l’espace d’optimisation. Nous montrons une amélioration sur les méthodes de l’état de l’art sur un large éventail de problèmes scientifiques. Nous présentons ainsi un système d’identification biométrique basée sur les sons produit par les battements de coeur, atteignant des taux d’erreur équivalents à d’autres caractéristiques biométriques. Ces résultats sont confirmés par le l'ensemble de données cardiaques de l’étude d’isolation Mars500. Enfin, nous étudions le problème de la génération de mélanges sonores orchestraux imitant au mieux une cible audio donnée. L'algorithme de recherche basé sur le problème MOTS nous permet d’obtenir un ensemble de solutions efficaces
Millions of years of genetic evolution have shaped our auditory system, allowing to discriminate acoustic events in a flexible manner. We can perceptually process multiple de-correlated scales in a multidimensional way. In addition, humans have a natural ability to extract a coherent structure from temporal shapes. We show that emulating these mechanisms in our algorithmic choices, allow to create efficient approaches to perform matching and classification, with a scope beyond musical issues. We introduce the problem of multiobjective Time Series (MOTS) and propose an efficient algorithm to solve it. We introduce two innovative querying paradigms on audio files. We introduce a new classification paradigm based on the hypervolume dominated by different classes called hypervolume-MOTS (HV-MOTS). This system studies the behavior of the whole class by its distribution and spread over the optimization space. We show an improvement over the state of the art methods on a wide range of scientific problems. We present a biometric identification systems based on the sounds produced by heartbeats. This system is able to reach low error rates equivalent to other biometric features. These results are confirmed by the extensive cardiac data set of the Mars500 isolation study. Finally, we study the problem of generating orchestral mixtures that could best imitate a sound target. The search algorithm based on MOTS problem allows to obtain a set of solutions to approximate any audio source
APA, Harvard, Vancouver, ISO, and other styles
10

Rhéaume, François. "Une méthode de machine à état liquide pour la classification de séries temporelles." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28815/28815.pdf.

Full text
Abstract:
L'intérêt envers la neuroscience informatique pour les applications d'intelligence arti- cielle est motivé par plusieurs raisons. Parmi elles se retrouve la rapidité avec laquelle le domaine evolue, promettant de nouvelles capacités pour l'ingénieur. Dans cette thèse, une méthode exploitant les récents avancements en neuroscience informatique est présentée: la machine à état liquide (\liquid state machine"). Une machine à état liquide est un modèle de calcul de données inspiré de la biologie qui permet l'apprentissage sur des ux de données. Le modèle représente un outil prometteur de reconnaissance de formes temporelles. Déjà, il a démontré de bons résultats dans plusieurs applications. En particulier, la reconnaissance de formes temporelles est un problème d'intérêt dans les applications militaires de surveillance telle que la reconnaissance automatique de cibles. Jusqu'à maintenant, la plupart des machines à état liquide crées pour des problèmes de reconnaissance de formes sont demeurées semblables au modèle original. D'un point de vue ingénierie, une question se dégage: comment les machines à état liquide peuvent-elles être adaptées pour améliorer leur aptitude à solutionner des problèmes de reconnaissance de formes temporelles ? Des solutions sont proposées. La première solution suggèrée se concentre sur l'échantillonnage de l'état du liquide. À ce sujet, une méthode qui exploite les composantes fréquentielles du potentiel sur les neurones est définie. La combinaison de différents types de vecteurs d'état du liquide est aussi discutée. Deuxièmement, une méthode pour entrâner le liquide est développée. La méthode utilise la plasticité synaptique à modulation temporelle relative pour modeler le liquide. Une nouvelle approche conditionnée par classe de données est proposée, où différents réseaux de neurones sont entraînés exclusivement sur des classes particuli ères de données. Concernant cette nouvelle approche ainsi que celle concernant l'échantillonnage du liquide, des tests comparatifs ont été effectués avec l'aide de jeux de données simulées et réelles. Les tests permettent de constater que les méthodes présentées surpassent les méthodes conventionnelles de machine à état liquide en termes de taux de reconnaissance. Les résultats sont encore plus encourageants par le fait qu'ils ont été obtenus sans l'optimisation de plusieurs paramètres internes pour les differents jeux de données testés. Finalement, des métriques de l'état du liquide ont été investiguées pour la prédiction de la performance d'une machine à état liquide.
There are a number of reasons that motivate the interest in computational neuroscience for engineering applications of artificial intelligence. Among them is the speed at which the domain is growing and evolving, promising further capabilities for artificial intelligent systems. In this thesis, a method that exploits the recent advances in computational neuroscience is presented: the liquid state machine. A liquid state machine is a biologically inspired computational model that aims at learning on input stimuli. The model constitutes a promising temporal pattern recognition tool and has shown to perform very well in many applications. In particular, temporal pattern recognition is a problem of interest in military surveillance applications such as automatic target recognition. Until now, most of the liquid state machine implementations for spatiotemporal pattern recognition have remained fairly similar to the original model. From an engineering perspective, a challenge is to adapt liquid state machines to increase their ability for solving practical temporal pattern recognition problems. Solutions are proposed. The first one concentrates on the sampling of the liquid state. In this subject, a method that exploits frequency features of neurons is defined. The combination of different liquid state vectors is also discussed. Secondly, a method for training the liquid is developed. The method implements synaptic spike-timing dependent plasticity to shape the liquid. A new class-conditional approach is proposed, where different networks of neurons are trained exclusively on particular classes of input data. For the suggested liquid sampling methods and the liquid training method, comparative tests were conducted with both simulated and real data sets from different application areas. The tests reveal that the methods outperform the conventional liquid state machine approach. The methods are even more promising in that the results are obtained without optimization of many internal parameters for the different data sets. Finally, measures of the liquid state are investigated for predicting the performance of the liquid state machine.
APA, Harvard, Vancouver, ISO, and other styles
11

Plaud, Angéline. "Classification ensembliste des séries temporelles multivariées basée sur les M-histogrammes et une approche multi-vues." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC047.

Full text
Abstract:
La mesure des différents phénomènes terrestres et l’échange d’informations ont permis l’émergence d’un type de données appelé série temporelle. Celle-ci se caractérise par un grand nombre de points la composant et surtout par des interactions entre ces points. En outre, une série temporelle est dite multivariée lorsque plusieurs mesures sont captées à chaque instant de temps. Bien que l’analyse des séries temporelles univariées, une mesure par instant, soit très développée, l’analyse des séries multivariées reste un challenge ouvert. En effet, il n’est pas possible d’appliquer directement les méthodes univariées sur les données multivariées, car il faut tenir compte des interactions entre séries de mesures.De plus, dans le cadre d’applications industrielles, les séries temporelles ne sont pas composées d’un même nombre de mesures, ce qui complique encore leur analyse. Or les méthodes mises à disposition, aujourd’hui, pour la classification supervisée de ces séries, ne permettent pas de répondre de manière satisfaisante à cette problématique en plus d’une gestion rapide et efficace des données. Cette approche emploie donc un nouvel outil, qui n’a jamais été utilisé dans le domaine de la classification de séries temporelles multivariées, qui est le M-histogramme pour répondre à cette question.Un M-histogramme est à la base une méthode de visualisation sur M axes de la fonction de densité sous-jacente à un échantillon de données. Son utilisation ici permet de produire une nouvelle représentation de nos données afin de mettre en évidence les interactions entre dimensions.Cette recherche de liens entre dimensions correspond aussi tout particulièrement à un sous-domaine d’apprentissage, appelé l’apprentissage multi-vues. Où une vue est une extraction de plusieurs dimensions d’un ensemble de données, de même nature ou type. L’objectif est alors d’exploiter le lien entre ces dimensions afin de mieux classifier les dites données, au travers d’un modèle ensembliste permettant d’agréger les prédictions émises à partir de chaque vue. Dans cette thèse, nous proposons donc une méthode multi-vues ensembliste de M-histogrammes afin de classifier les Séries Temporelles Multivariées (STM). Cela signifie que plusieurs M-histogrammes sont créés à partir de plusieurs vues des STM exploitées. Une prédiction est ensuite réalisée grâce à chaque M-histogramme. Enfin ces prédictions sont ensuite agrégées afin de produire une prédiction finale.Il est montré dans la suite que la méthode ainsi créée est capable de répondre au problème général de la classification supervisée de STM et son efficacité est exposée sur un cas applicatif Michelin
Recording measurements about various phenomena and exchanging information about it, participate in the emergence of a type of data called time series. Today humongous quantities of those data are often collected. A time series is characterized by numerous points and interactions can be observed between those points. A time series is multivariate when multiple measures are recorded at each timestamp, meaning a point is, in fact, a vector of values. Even if univariate time series, one value at each timestamp, are well-studied and defined, it’s not the case of multivariate one, for which the analysis is still challenging. Indeed, it is not possible to apply directly techniques of classification developed on univariate data to the case of multivariate one. In fact, for this latter, we have to take into consideration the interactions not only between points but also between dimensions. Moreover, in industrial cases, as in Michelin company, the data are big and also of different length in terms of points size composing the series. And this brings a new complexity to deal with during the analysis. None of the current techniques of classifying multivariate time series satisfies the following criteria, which are a low complexity of computation, dealing with variation in the number of points and good classification results. In our approach, we explored a new tool, which has not been applied before for MTS classification, which is called M-histogram. A M-histogram is a visualization tool using M axis to project the density function underlying the data. We have employed it here to produce a new representation of the data, that allows us to bring out the interactions between dimensions. Searching for links between dimensions correspond particularly to a part of learning techniques called multi-view learning. A view is an extraction of dimensions of a dataset, which are of same nature or type. Then the goal is to display the links between the dimensions inside each view in order to classify all the data, using an ensemble classifier. So we propose a multi-view ensemble model to classify multivariate time series. The model creates multiple M-histograms from differents groups of dimensions. Then each view allows us to get a prediction which we can aggregate to get a final prediction. In this thesis, we show that the proposed model allows a fast classification of multivariate time series of different sizes. In particular, we applied it on aMichelin use case
APA, Harvard, Vancouver, ISO, and other styles
12

Varasteh, Yazdi Saeed. "Représentations parcimonieuses et apprentissage de dictionnaires pour la classification et le clustering de séries temporelles." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM062/document.

Full text
Abstract:
L'apprentissage de dictionnaires à partir de données temporelles est un problème fondamental pour l’extraction de caractéristiques temporelles latentes, la révélation de primitives saillantes et la représentation de données temporelles complexes. Cette thèse porte sur l’apprentissage de dictionnaires pour la représentation parcimonieuse de séries temporelles. On s’intéresse à l’apprentissage de représentations pour la reconstruction, la classification et le clustering de séries temporelles sous des transformations de distortions temporelles. Nous proposons de nouveaux modèles invariants aux distortions temporelles.La première partie du travail porte sur l’apprentissage de dictionnaire pour des tâches de reconstruction et de classification de séries temporelles. Nous avons proposé un modèle TWI-OMP (Time-Warp Invariant Orthogonal Matching Pursuit) invariant aux distorsions temporelles, basé sur un opérateur de maximisation du cosinus entre des séries temporelles. Nous avons ensuite introduit le concept d’atomes jumelés (sibling atomes) et avons proposé une approche d’apprentissage de dictionnaires TWI-kSVD étendant la méthode kSVD à des séries temporelles.Dans la seconde partie du travail, nous nous sommes intéressés à l’apprentissage de dictionnaires pour le clustering de séries temporelles. Nous avons proposé une formalisation du problème et une solution TWI-DLCLUST par descente de gradient.Les modèles proposés sont évalués au travers plusieurs jeux de données publiques et réelles puis comparés aux approches majeures de l’état de l’art. Les expériences conduites et les résultats obtenus montrent l’intérêt des modèles d’apprentissage de représentations proposés pour la classification et le clustering de séries temporelles
Learning dictionary for sparse representing time series is an important issue to extract latent temporal features, reveal salient primitives and sparsely represent complex temporal data. This thesis addresses the sparse coding and dictionary learning problem for time series classification and clustering under time warp. For that, we propose a time warp invariant sparse coding and dictionary learning framework where both input samples and atoms define time series of different lengths that involve varying delays.In the first part, we formalize an L0 sparse coding problem and propose a time warp invariant orthogonal matching pursuit based on a new cosine maximization time warp operator. For the dictionary learning stage, a non linear time warp invariant kSVD (TWI-kSVD) is proposed. Thanks to a rotation transformation between each atom and its sibling atoms, a singular value decomposition is used to jointly approximate the coefficients and update the dictionary, similar to the standard kSVD. In the second part, a time warp invariant dictionary learning for time series clustering is formalized and a gradient descent solution is proposed.The proposed methods are confronted to major shift invariant, convolved and kernel dictionary learning methods on several public and real temporal data. The conducted experiments show the potential of the proposed frameworks to efficiently sparse represent, classify and cluster time series under time warp
APA, Harvard, Vancouver, ISO, and other styles
13

Cano, Emmanuelle. "Cartographie des formations végétales naturelles à l’échelle régionale par classification de séries temporelles d’images satellitaires." Thesis, Rennes 2, 2016. http://www.theses.fr/2016REN20024/document.

Full text
Abstract:
La cartographie du couvert végétal est un outil essentiel au suivi et à la gestion et des milieux « naturels ». Des cartes caractérisant les essences forestières à l'échelle régionale sont nécessaires pour la gestion des milieux forestiers. Les séries temporelles d'images satellitaires optiques à moyenne résolution spatiale, peuvent permettre de satisfaire ce besoin. L'objectif de cette thèse est d'améliorer la classification supervisée d'une série temporelle afin de produire des cartes à l'échelle régionale détaillant la composition en essences de la végétation forestière. Nous avons d'abord évalué l'apport de la stratification du site d'étude pour améliorer les résultats de la classification d'une série temporelle d'images MODIS. Le recours à une stratification à partir d'une segmentation orientée objet améliore la classification supervisée, avec une augmentation de la valeur de Kappa et du taux de rejet des pixels à classer. Un seuil minimal et un seuil maximal de la surface de végétation à classer ont été identifiés, correspondant respectivement à un taux de rejet trop élevé et à une absence d'effet de la stratification. Nous avons ensuite évalué l'influence de l'organisation de la série temporelle d'images à moyenne résolution spatiale et du choix de l'algorithme de classification. Cette évaluation a été effectuée pour trois algorithmes (maximum de vraisemblance, Support Vector Machine, Random Forest) en faisant varier les caractéristiques de la série temporelle. On observe un effet de la temporalité et de la radiométrie sur la précision de la classification particulièrement significatif et la supériorité de l'algorithme Random Forest. Sur le plan thématique, des confusions subsistent et certains mélanges d'essences sont mal distingués. Nous avons alors cherché à évaluer l'apport du changement de résolution spatiale des images composant la série temporelle pour améliorer les résultats de classification. Les conclusions effectuées précédemment avec les données MODIS sont confortées, ce qui permet de conclure qu'elles sont indépendantes des données d'entrée et de leur résolution spatiale. Une amélioration significative est apportée par le changement de résolution spatiale, avec une augmentation de l'indice de Kappa de 0,60 à 0,72 obtenue grâce à la diminution de la proportion de pixels mixtes. Quelle que soit la résolution spatiale des images utilisées, les résultats obtenus montrent que la définition d'une procédure optimale améliore sensiblement les résultats de la classification
Forest cover mapping is an essential tool for forest management. Detailed maps, characterizing forest types at a régional scale, are needed. This need can be fulfilled by médium spatial resolution optical satellite images time sériés. This thesis aims at improving the supervised classification procédure applied to a time sériés, to produce maps detailing forest types at a régional scale. To meet this goal, the improvement of the results obtained by the classification of a MODIS time sériés, performed with a stratification of the study area, was assessed. An improvement of classification accuracy due to stratification built by object-based image analysis was observed, with an increase of the Kappa index value and an increase of the reject fraction rate. These two phenomena are correlated to the classified végétation area. A minimal and a maximal value were identified, respectively related to a too high reject fraction rate and a neutral stratification impact.We carried out a second study, aiming at assessing the influence of the médium spatial resolution time sériés organization and of the algorithm on classification quality. Three distinct classification algorithms (maximum likelihood, Support Vector Machine, Random Forest) and several time sériés were studied. A significant improvement due to temporal and radiométrie effects and the superiority of Random Forest were highlighted by the results. Thematic confusions and low user's and producer's accuracies were still observed for several classes. We finally studied the improvement brought by a spatial resolution change for the images composing the time sériés to discriminate classes of mixed forest species. The conclusions of the former study (MODIS images) were confirmed with DEIMOS images. We can conclude that these effects are independent from input data and their spatial resolution. A significant improvement was also observed with an increase of the Kappa index value from 0,60 with MODIS data to 0,72 with DEIMOS data, due to a decrease of the mixed pixels rate
APA, Harvard, Vancouver, ISO, and other styles
14

Nicolae, Maria-Irina. "Learning similarities for linear classification : theoretical foundations and algorithms." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES062/document.

Full text
Abstract:
La notion de métrique joue un rôle clef dans les problèmes d’apprentissage automatique tels que la classification, le clustering et le ranking. L’apprentissage à partir de données de métriques adaptées à une tâche spécifique a suscité un intérêt croissant ces dernières années. Ce domaine vise généralement à trouver les meilleurs paramètres pour une métrique donnée sous certaines contraintes imposées par les données. La métrique apprise est utilisée dans un algorithme d’apprentissage automatique dans le but d’améliorer sa performance. La plupart des méthodes d’apprentissage de métriques optimisent les paramètres d’une distance de Mahalanobis pour des vecteurs de features. Les méthodes actuelles de l’état de l’art arrivent à traiter des jeux de données de tailles significatives. En revanche, le sujet plus complexe des séries temporelles multivariées n’a reçu qu’une attention limitée, malgré l’omniprésence de ce type de données dans les applications réelles. Une importante partie de la recherche sur les séries temporelles est basée sur la dynamic time warping (DTW), qui détermine l’alignement optimal entre deux séries temporelles. L’état actuel de l’apprentissage de métriques souffre de certaines limitations. La plus importante est probablement le manque de garanties théoriques concernant la métrique apprise et sa performance pour la classification. La théorie des fonctions de similarité (ℰ , ϓ, T)-bonnes a été l’un des premiers résultats liant les propriétés d’une similarité à celles du classifieur qui l’utilise. Une deuxième limitation vient du fait que la plupart des méthodes imposent des propriétés de distance, qui sont coûteuses en terme de calcul et souvent non justifiées. Dans cette thèse, nous abordons les limitations précédentes à travers deux contributions principales. La première est un nouveau cadre général pour l’apprentissage conjoint d’une fonction de similarité et d’un classifieur linéaire. Cette formulation est inspirée de la théorie de similarités (ℰ , ϓ, τ) -bonnes, fournissant un lien entre la similarité et le classifieur linéaire. Elle est convexe pour une large gamme de fonctions de similarité et de régulariseurs. Nous dérivons deux bornes de généralisation équivalentes à travers les cadres de robustesse algorithmique et de convergence uniforme basée sur la complexité de Rademacher, prouvant les propriétés théoriques de notre formulation. Notre deuxième contribution est une méthode d’apprentissage de similarités basée sur DTW pour la classification de séries temporelles multivariées. Le problème est convexe et utilise la théorie des fonctions (ℰ , ϓ, T)-bonnes liant la performance de la métrique à celle du classifieur linéaire associé. A l’aide de la stabilité uniforme, nous prouvons la consistance de la similarité apprise conduisant à la dérivation d’une borne de généralisation
The notion of metric plays a key role in machine learning problems, such as classification, clustering and ranking. Learning metrics from training data in order to make them adapted to the task at hand has attracted a growing interest in the past years. This research field, known as metric learning, usually aims at finding the best parameters for a given metric under some constraints from the data. The learned metric is used in a machine learning algorithm in hopes of improving performance. Most of the metric learning algorithms focus on learning the parameters of Mahalanobis distances for feature vectors. Current state of the art methods scale well for datasets of significant size. On the other hand, the more complex topic of multivariate time series has received only limited attention, despite the omnipresence of this type of data in applications. An important part of the research on time series is based on the dynamic time warping (DTW) computing the optimal alignment between two time series. The current state of metric learning suffers from some significant limitations which we aim to address in this thesis. The most important one is probably the lack of theoretical guarantees for the learned metric and its performance for classification.The theory of (ℰ , ϓ, τ)-good similarity functions has been one of the first results relating the properties of a similarity to its classification performance. A second limitation in metric learning comes from the fact that most methods work with metrics that enforce distance properties, which are computationally expensive and often not justified. In this thesis, we address these limitations through two main contributions. The first one is a novel general framework for jointly learning a similarity function and a linear classifier. This formulation is inspired from the (ℰ , ϓ, τ)-good theory, providing a link between the similarity and the linear classifier. It is also convex for a broad range of similarity functions and regularizers. We derive two equivalent generalization bounds through the frameworks of algorithmic robustness and uniform convergence using the Rademacher complexity, proving the good theoretical properties of our framework. Our second contribution is a method for learning similarity functions based on DTW for multivariate time series classification. The formulation is convex and makes use of the(ℰ , ϓ, τ)-good framework for relating the performance of the metric to that of its associated linear classifier. Using uniform stability arguments, we prove the consistency of the learned similarity leading to the derivation of a generalization bound
APA, Harvard, Vancouver, ISO, and other styles
15

Oliveira, Adriano Lorena Inácio de. "Neural networks forecasting and classification-based techniques for novelty detection in time series." Universidade Federal de Pernambuco, 2011. https://repositorio.ufpe.br/handle/123456789/1825.

Full text
Abstract:
Made available in DSpace on 2014-06-12T15:52:37Z (GMT). No. of bitstreams: 2 arquivo4525_1.pdf: 1657788 bytes, checksum: 5abba3555b6cbbc4fa073f1b718d6579 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011
O problema da detecção de novidades pode ser definido como a identificação de dados novos ou desconhecidos aos quais um sistema de aprendizagem de máquina não teve acesso durante o treinamento. Os algoritmos para detecção de novidades são projetados para classificar um dado padrão de entrada como normal ou novidade. Esses algoritmos são usados em diversas areas, como visão computacional, detecçãao de falhas em máquinas, segurança de redes de computadores e detecção de fraudes. Um grande número de sistemas pode ter seu comportamento modelado por séries temporais. Recentemente o pro oblema de detecção de novidades em séries temporais tem recebido considerável atenção. Várias técnicas foram propostas, incluindo téecnicas baseadas em previsão de séries temporais com redes neurais artificiais e em classificação de janelas das s´eries temporais. As t´ecnicas de detec¸c ao de novidades em s´eries temporais atrav´es de previs ao t em sido criticadas devido a seu desempenho considerado insatisfat´orio. Em muitos problemas pr´aticos, a quantidade de dados dispon´ıveis nas s´eries ´e bastante pequena tornando a previs ao um problema ainda mais complexo. Este ´e o caso de alguns problemas importantes de auditoria, como auditoria cont´abil e auditoria de folhas de pagamento. Como alternativa aos m´etodos baseados em previs ao, alguns m´etodos baseados em classificação foram recentemente propostos para detecção de novidades em séries temporais, incluindo m´etodos baseados em sistemas imunol´ogicos artificiais, wavelets e m´aquinas de vetor de suporte com uma ´unica classe. Esta tese prop oe um conjunto de m´etodos baseados em redes neurais artificiais para detecção de novidades em séries temporais. Os métodos propostos foram projetados especificamente para detec¸c ao de fraudes decorrentes de desvios relativamente pequenos, que s ao bastante importantes em aplica¸c oes de detec¸c ao de fraudes em sistemas financeiros. O primeiro m´etodo foi proposto para melhorar o desempenho de detec¸c ao de novidades baseada em previs ao. Este m´etodo ´e baseado em intervalos de confian¸ca robustos, que s ao usados para definir valores adequados para os limiares a serem usados para detec¸c ao de novidades. O m´etodo proposto foi aplicado a diversas s´eries temporais financeiras e obteve resultados bem melhores que m´etodos anteriores baseados em previs ao. Esta tese tamb´em prop oe dois diferentes m´etodos baseados em classifica¸c ao para detec ¸c ao de novidades em s´eries temporais. O primeiro m´etodo ´e baseado em amostras negativas, enquanto que o segundo m´etodo ´e baseado em redes neurais artificiais RBFDDA e n ao usa amostras negativas na fase de treinamento. Resultados de simula¸c ao usando diversas s´eries temporais extra´ıdas de aplica¸c oes reais mostraram que o segundo m´etodo obt´em melhor desempenho que o primeiro. Al´em disso, o desempenho do segundo m´etodo n ao depende do tamanho do conjunto de teste, ao contr´ario do que acontece com o primeiro m´etodo. Al´em dos m´etodos para detec¸c ao de novidades em s´eries temporais, esta tese prop oe e investiga quatro diferentes m´etodos para melhorar o desempenho de redes neurais RBF-DDA. Os m´etodos propostos foram avaliados usando seis conjuntos de dados do reposit´orio UCI e os resultados mostraram que eles melhoram consideravelmente o desempenho de redes RBF-DDA e tamb´em que eles obt em melhor desempenho que redes MLP e que o m´etodo AdaBoost. Al´em disso, mostramos que os m´etodos propostos obt em resultados similares a k-NN. Os m´etodos propostos para melhorar RBF-DDA foram tamb´em usados em conjunto com o m´etodo proposto nesta tese para detec¸c ao de novidades em s´eries temporais baseado em amostras negativas. Os resultados de diversos experimentos mostraram que esses m´etodos tamb´em melhoram bastante o desempenho da detec¸c ao de fraudes em s´eries temporais, que ´e o foco principal desta tese.
APA, Harvard, Vancouver, ISO, and other styles
16

Régis, Sébastien. "Segmentation, classification et fusion de séries temporelles multi-sources : application à des signaux dans un bio-procédé." Antilles-Guyane, 2004. http://www.theses.fr/2004AGUY0121.

Full text
Abstract:
L'objectif de cette thèse est la découverte de connaissances dans des systèmes biologiques à partir de séries temporelles associées à la dynamique spatio-temporelle de ces systèmes en utilisant des méthodes d'analyse des signaux non-stationnaires et des méthodes de classification basées sur la logique floue et la théorie de l'évidence. Premièrement la transformée en ondelettes et l'évaluation du coefficient de Hôlder (associé aux différentes singularités. Des séries temporelles) permettent de mieux détecter les phénomènes et états physiologiques du système. Une nouvelle méthode d'évaluation de l'exposant de Hôlder utilisant les algorithmes génétiques est proposée. Puis la méthode de classification à base de logique floue nommée LAMDA est utilisée pour caractériser les états. Les outils d'agrégation de LAMDA sont analysés et un nouvel opérateur de fusion est proposée. LAMDA est comparée à d'autres classificateurs et donne de meilleurs résultats pour cette application. Enfm une étude de la pertinence des sources d'information est proposée. Elle est basée sur la notion de conflit de la théorie de l'évidence. Les résultats expérimentaux ont confirmé dans l'ensemble les connaissances des experts. Cette approche combinant le traitement du signal, la classification et la théorie de l'évidence permet donc l'analyse et la caractérisation des systèmes biologiques sans utiliser de modèle déterministe. La combinaisons de ces outils a permis de découvrir de nouvelles connaissances et de confirmer la connaissance des experts en se basant essentiellement sur les séries temporelles décrivant ce système biologique
This PhD is devoted to knowledge basis discovery using signal analysis and classification tools on time series. The application is the detection of new, known or abnormal physiological states in a alcoholic bioprocess. Analysis, classification and fusion of data from time series are done. First, wavelets transform and Hôlder exponent (linked to the singularities of the time series) are used to detect phenomenon and physiological states of the system. A new approach combining wavelets transform and differential evolutionary methods is proposed and gives better result than other classical evaluation methods of fuis Hôlder exponent. Then the LAMDA method of classification and its tools are presented. Aggregation operators of LAMDA are presented and a new operator is proposed. A comparison with other classifiers shows that LAMDA gives better results for this application. Relevance of data source is studied. A method based on evidence theory is proposed. Experimental results show that the relevance evaluation are quite interesting. This approach using signal processing, classification and evidence theory enables the analysis and the characterisation of the biological systems without using deterministic model. Thus the combination of these tools enables to discover new knowledge and to confirm the knowledge of the expert mainly by using time series describing biological systems
APA, Harvard, Vancouver, ISO, and other styles
17

Ben, Hamadou Radhouane. "Contribution à l'analyse spatio-temporelle de séries écologiques marines." Paris 6, 2003. http://www.theses.fr/2003PA066021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Benkabou, Seif-Eddine. "Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1046/document.

Full text
Abstract:
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse
Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
APA, Harvard, Vancouver, ISO, and other styles
19

Renard, Xavier. "Time series representation for classification : a motif-based approach." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066593/document.

Full text
Abstract:
Nos travaux décrits dans cette thèse portent sur l’apprentissage d’une représentation pour la classification automatique basée sur la découverte de motifs à partir de séries temporelles. L’information pertinente contenue dans une série temporelle peut être encodée temporellement sous forme de tendances, de formes ou de sous-séquences contenant habituellement des distorsions. Des approches ont été développées pour résoudre ces problèmes souvent au prix d’une importante complexité calculatoire. Parmi ces techniques nous pouvons citer les mesures de distance et les représentations de l’information contenue dans les séries temporelles. Nous nous concentrons sur la représentation de l’information contenue dans les séries temporelles. Nous proposons un cadre (framework) pour générer une nouvelle représentation de séries temporelles basée sur la découverte automatique d’ensembles discriminants de sous-séquences. Cette représentation est adaptée à l’utilisation d’algorithmes de classification classiques basés sur des attributs. Le framework proposé transforme un ensemble de séries temporelles en un espace d’attributs (feature space) à partir de sous-séquences énumérées des séries temporelles, de mesures de distance et de fonctions d’agrégation. Un cas particulier de ce framework est la méthode notoire des « shapelets ». L’inconvénient potentiel d’une telle approache est le nombre très important de sous-séquences à énumérer en ce qu’il induit un très grand feature space, accompagné d’une très grande complexité calculatoire. Nous montrons que la plupart des sous-séquences présentes dans un jeu de données composé de séries temporelles sont redondantes. De ce fait, un sous-échantillonnage aléatoire peut être utilisé pour générer un petit sous-ensemble de sous-séquences parmi l’ensemble exhaustif, en préservant l’information nécessaire pour la classification et tout en produisant un feature space de taille compatible avec l’utilisation d’algorithmes d’apprentissage automatique de l’état de l’art avec des temps de calculs raisonnable. On démontre également que le nombre de sous-séquences à tirer n’est pas lié avec le nombre de séries temporelles présent dans l’ensemble d’apprentissage, ce qui garantit le passage à l’échelle de notre approche. La combinaison de cette découverte dans le contexte de notre framework nous permet de profiter de techniques avancées (telles que des méthodes de sélection d’attributs multivariées) pour découvrir une représentation de séries temporelles plus riche, en prenant par exemple en considération les relations entre sous-séquences. Ces résultats théoriques ont été largement testés expérimentalement sur une centaine de jeux de données classiques de la littérature, composés de séries temporelles univariées et multivariées. De plus, nos recherches s’inscrivant dans le cadre d’une convention de recherche industrielle (CIFRE) avec Arcelormittal, nos travaux ont été appliqués à la détection de produits d’acier défectueux à partir des mesures effectuées par les capteurs sur des lignes de production
Our research described in this thesis is about the learning of a motif-based representation from time series to perform automatic classification. Meaningful information in time series can be encoded across time through trends, shapes or subsequences usually with distortions. Approaches have been developed to overcome these issues often paying the price of high computational complexity. Among these techniques, it is worth pointing out distance measures and time series representations. We focus on the representation of the information contained in the time series. We propose a framework to generate a new time series representation to perform classical feature-based classification based on the discovery of discriminant sets of time series subsequences (motifs). This framework proposes to transform a set of time series into a feature space, using subsequences enumerated from the time series, distance measures and aggregation functions. One particular instance of this framework is the well-known shapelet approach. The potential drawback of such an approach is the large number of subsequences to enumerate, inducing a very large feature space and a very high computational complexity. We show that most subsequences in a time series dataset are redundant. Therefore, a random sampling can be used to generate a very small fraction of the exhaustive set of subsequences, preserving the necessary information for classification and thus generating a much smaller feature space compatible with common machine learning algorithms with tractable computations. We also demonstrate that the number of subsequences to draw is not linked to the number of instances in the training set, which guarantees the scalability of the approach. The combination of the latter in the context of our framework enables us to take advantage of advanced techniques (such as multivariate feature selection techniques) to discover richer motif-based time series representations for classification, for example by taking into account the relationships between the subsequences. These theoretical results have been extensively tested on more than one hundred classical benchmarks of the literature with univariate and multivariate time series. Moreover, since this research has been conducted in the context of an industrial research agreement (CIFRE) with Arcelormittal, our work has been applied to the detection of defective steel products based on production line's sensor measurements
APA, Harvard, Vancouver, ISO, and other styles
20

Amaral, Bruno Ferraz do. "Classificação semissupervisionada de séries temporais extraídas de imagens de satélite." Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-18112016-105621/.

Full text
Abstract:
Nas últimas décadas, com o crescimento acelerado na geração e armazenamento de dados, houve um aumento na necessidade de criação e gerenciamento de grandes bases de dados. Logo, a utilização de técnicas de mineração de dados adequadas para descoberta de padrões e informações úteis em bases de dados é uma tarefa de interesse. Em especial, bases de séries temporais têm sido alvo de pesquisas em áreas como medicina, economia e agrometeorologia. Em mineração de dados, uma das tarefas mais exploradas é a classificação. Entretanto, é comum em bases de séries temporais, a quantidade e complexidade de dados extrapolarem a capacidade humana de análise manual dos dados, o que torna o processo de supervisão dos dados custoso. Como consequência disso, são produzidos poucos dados rotulados, em comparação a um grande volume de dados não rotulados disponíveis. Nesse cenário, uma abordagem adequada para análise desses dados é a classificação semissupervisionada, que considera dados rotulados e não rotulados para o treinamento do classificador. Nesse contexto, este trabalho de mestrado propõe 1) uma metodologia de análise de dados obtidos a partir de séries temporais de imagens de satélite (SITS) usando tarefas de mineração de dados e 2) uma técnica baseada em grafos para classificação semissupervisionada de séries temporais extraídas de imagens de satélite. A metodologia e a técnica de classificação desenvolvidas são aplicadas na análise de séries temporais de índices de vegetação obtidas a partir de SITS, visando a identificação de áreas de plantio de cana-de-açúcar. Os resultados obtidos em análise experimental, realizada com apoio de especialistas no domínio de aplicação, indicam que a metodologia proposta é adequada para auxiliar pesquisas em agricultura. Além disso, os resultados do estudo comparativo mostram que a técnica de classificação semissupervisionada desenvolvida supera métodos de classificação supervisionada consolidados na literatura e métodos correlatos de classificação semissupervisionada.
The amount of digital data generated and stored as well as the need of creation and management of large databases has increased significantly, in the last decades. The possibility of finding valid and potentially useful patterns and information in large databases has attracted the attention of many scientific areas. Time series databases have been explored using data mining methods in serveral domains of application, such as economics, medicine and agrometeorology. Due to the large volume and complexity of some time series databases, the process of labeling data for supervised tasks, such as classification, can be very expensive. To overcome the problem of scarcity of labeled data, semi-supervised classification, which benefits from both labeled and unlabeled data available, can be applied to classify data from large time series databases. In this Master dissertation, we propose 1) a framework for the analysis of data extracted from satellite image time series (SITS) using data mining tasks and 2) a graph-based semi-supervised classification method, developed to classify temporal data obtained from satellite images. According to experts in agrometeorology, the use of the proposed method and framework provides an automatic way of analyzing data extracted from SITS, which is very useful for supporting research in this domain of application. We apply the framework and the proposed semi-supervised classification method in the analysis of vegetation index time series, aiming at identifying sugarcane crop fields, in Brazil. Experimental results indicate that our proposed framework is useful for supporting researches in agriculture, according to experts in the domain of application. We also show that our method is more accurate than traditional supervised methods and related semi-supervised methods.
APA, Harvard, Vancouver, ISO, and other styles
21

Leverger, Colin. "Investigation of a framework for seasonal time series forecasting." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S033.

Full text
Abstract:
Pour déployer des applications web, l'utilisation de serveurs informatique est primordiale. S'ils sont peu nombreux, les performances des applications peuvent se détériorer. En revanche, s'ils sont trop nombreux, les ressources sont gaspillées et les coûts argumentés. Dans ce contexte, les ingénieurs utilisent des outils de planning capacitaire qui leur permettent de suivre les performances des serveurs, de collecter les données temporelles générées par les infrastructures et d’anticiper les futurs besoins. La nécessité de créer des prévisions fiables apparaît évidente. Les données des infrastructures présentent souvent une saisonnalité évidente. Le cycle d’activité suivi par l’infrastructure est déterminé par certains cycles saisonniers (par exemple, le rythme quotidien de l’activité des utilisateurs). Cette thèse présente un framework pour la prévision de séries temporelles saisonnières. Ce framework est composé de deux modèles d’apprentissage automatique (e.g. clustering et classification) et vise à fournir des prévisions fiables à moyen terme avec un nombre limité de paramètres. Trois implémentations du framework sont présentées : une baseline, une déterministe et une probabiliste. La baseline est constituée d'un algorithme de clustering K-means et de modèles de Markov. La version déterministe est constituée de plusieurs algorithmes de clustering (K-means, K-shape, GAK et MODL) et de plusieurs classifieurs (classifieurs bayésiens, arbres de décisions, forêt aléatoire et régression logistique). La version probabiliste repose sur du coclustering pour créer des grilles probabilistes de séries temporelles, afin de décrire les données de manière non supervisée. Les performances des différentes implémentations du framework sont comparées avec différents modèles de l’état de l’art, incluant les modèles autorégressifs, les modèles ARIMA et SARIMA, les modèles Holts Winters, ou encore Prophet pour la partie probabiliste. Les résultats de la baseline sont encourageants, et confirment l'intérêt pour le framework proposé. De bons résultats sont constatés pour la version déterministe du framework, et des résultats corrects pour la version probabiliste. Un cas d’utilisation d’Orange est étudié, et l’intérêt et les limites de la méthodologie sont montrés
To deploy web applications, using web servers is paramount. If there is too few of them, applications performances can quickly deteriorate. However, if they are too numerous, the resources are wasted and the cost increased. In this context, engineers use capacity planning tools to follow the performances of the servers, to collect time series data and to anticipate future needs. The necessity to create reliable forecasts seems clear. Data generated by the infrastructure often exhibit seasonality. The activity cycle followed by the infrastructure is determined by some seasonal cycles (for example, the user’s daily rhythms). This thesis introduces a framework for seasonal time series forecasting. This framework is composed of two machine learning models (e.g. clustering and classification) and aims at producing reliable midterm forecasts with a limited number of parameters. Three instantiations of the framework are presented: one baseline, one deterministic and one probabilistic. The baseline is composed of K-means clustering algorithms and Markov Models. The deterministic version is composed of several clustering algorithms (K-means, K-shape, GAK and MODL) and of several classifiers (naive-bayes, decision trees, random forests and logistic regression). The probabilistic version relies on coclustering to create time series probabilistic grids, that are used to describe the data in an unsupervised way. The performances of the various implementations are compared with several state-of-the-art models, including the autoregressive models, ARIMA and SARIMA, Holt Winters, or even Prophet for the probabilistic paradigm. The results of the baseline are encouraging and confirm the interest for the framework proposed. Good results are observed for the deterministic implementation, and correct results for the probabilistic version. One Orange use case is studied, and the interest and limits of the methodology are discussed
APA, Harvard, Vancouver, ISO, and other styles
22

Phan, Thi-Thu-Hong. "Elastic matching for classification and modelisation of incomplete time series." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0483/document.

Full text
Abstract:
Les données manquantes constituent un challenge commun en reconnaissance de forme et traitement de signal. Une grande partie des techniques actuelles de ces domaines ne gère pas l'absence de données et devient inutilisable face à des jeux incomplets. L'absence de données conduit aussi à une perte d'information, des difficultés à interpréter correctement le reste des données présentes et des résultats biaisés notamment avec de larges sous-séquences absentes. Ainsi, ce travail de thèse se focalise sur la complétion de larges séquences manquantes dans les séries monovariées puis multivariées peu ou faiblement corrélées. Un premier axe de travail a été une recherche d'une requête similaire à la fenêtre englobant (avant/après) le trou. Cette approche est basée sur une comparaison de signaux à partir d'un algorithme d'extraction de caractéristiques géométriques (formes) et d'une mesure d'appariement élastique (DTW - Dynamic Time Warping). Un package R CRAN a été développé, DTWBI pour la complétion de série monovariée et DTWUMI pour des séries multidimensionnelles dont les signaux sont non ou faiblement corrélés. Ces deux approches ont été comparées aux approches classiques et récentes de la littérature et ont montré leur faculté de respecter la forme et la dynamique du signal. Concernant les signaux peu ou pas corrélés, un package DTWUMI a aussi été développé. Le second axe a été de construire une similarité floue capable de prender en compte les incertitudes de formes et d'amplitude du signal. Le système FSMUMI proposé est basé sur une combinaison floue de similarités classiques et un ensemble de règles floues. Ces approches ont été appliquées à des données marines et météorologiques dans plusieurs contextes : classification supervisée de cytogrammes phytoplanctoniques, segmentation non supervisée en états environnementaux d'un jeu de 19 capteurs issus d'une station marine MAREL CARNOT en France et la prédiction météorologique de données collectées au Vietnam
Missing data are a prevalent problem in many domains of pattern recognition and signal processing. Most of the existing techniques in the literature suffer from one major drawback, which is their inability to process incomplete datasets. Missing data produce a loss of information and thus yield inaccurate data interpretation, biased results or unreliable analysis, especially for large missing sub-sequence(s). So, this thesis focuses on dealing with large consecutive missing values in univariate and low/un-correlated multivariate time series. We begin by investigating an imputation method to overcome these issues in univariate time series. This approach is based on the combination of shape-feature extraction algorithm and Dynamic Time Warping method. A new R-package, namely DTWBI, is then developed. In the following work, the DTWBI approach is extended to complete large successive missing data in low/un-correlated multivariate time series (called DTWUMI) and a DTWUMI R-package is also established. The key of these two proposed methods is that using the elastic matching to retrieving similar values in the series before and/or after the missing values. This optimizes as much as possible the dynamics and shape of knowledge data, and while applying the shape-feature extraction algorithm allows to reduce the computing time. Successively, we introduce a new method for filling large successive missing values in low/un-correlated multivariate time series, namely FSMUMI, which enables to manage a high level of uncertainty. In this way, we propose to use a novel fuzzy grades of basic similarity measures and fuzzy logic rules. Finally, we employ the DTWBI to (i) complete the MAREL Carnot dataset and then we perform a detection of rare/extreme events in this database (ii) forecast various meteorological univariate time series collected in Vietnam
APA, Harvard, Vancouver, ISO, and other styles
23

Bergomi, Mattia Giuseppe. "Dynamical and topological tools for (modern) music analysis." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066465.

Full text
Abstract:
Cette thèse propose une collection des nouveaux outils pour la représentation musicale. Ces modèles ont deux caractéristiques principales. D'un côté, ils sont inspirés par la géométrie et la topologie. De l'autre côté, ils ont une basse dimensionnalité, afin de garantir une visualisation intuitive des caractéristiques musicales qu'ils représentent. On s'est attaqué au problème de l'analyse musicale à partir de trois points de vue. On a représenté le contrepoint en utilisant des séries temporelles multivariées de matrices de permutations partielles. On a visualisé la conduite des voix en utilisant une classe particulière des tresses partielles et singulières. On donne ensuite une interpretation du Tonnetz comme complex simplicial et on utilise l'homologie persistante, afin de classifier des formes obtenues en déformant les sommets du Tonnetz. Ces déformations sont induites soit par des fonctions qui prennent en compte la nature symbolique de la musique, soit l'interaction symbol/signal. Les modèles basés sur la persistence topologique ont été testés sur une collection hétérogène de bases de données. Ces deux approches sont finalement combinées pour donner un troisième point de vue, qui a donné deux applications. Premièrement, on utilise l'alignement multiple des sequences, pour comparer plusieurs structures harmoniques et sémantiques déduites du signal audio, afin de visualiser et quantifier la propagation d’idée musicales entre artistes, genres et différentes époques. Ensuite on développe la théorie nécessaire pour comparer deux systèmes qui varient dans le temps, en représentant leurs caractéristiques géométriques comme des séries temporelles de diagrammes de persistence
In this work, we suggest a collection of novel models for the representation of music. These models are endowed with two main features. First, they originate from a topological and geometrical inspiration; second, their low dimensionality allows to build simple and informative visualisations. We tackle the problem of music representation following three non-orthogonal directions. First, we propose an interpretation of counterpoint as a multivariate time series of partial permutation matrices, whose observations are characterised by a degree of complexity. After providing both a static and a dynamic representation of counterpoint, voice leadings are reinterpreted as a special class of partial singular braids, and their main features are visualised. Thereafter, we give a topological interpretation of the Tonnetz (a graph commonly used in computational musicology), whose vertices are deformed by both a harmonic and a consonance-oriented function. The shapes derived from these deformations are classified using the formalism of persistent homology. Thus, this novel representation of music is evaluated on a collection of heterogenous musical datasets. Finally, a combination of the two approaches is proposed. A model at the crossroad between the signal and symbolic analysis of music uses multiple sequences alignment to provide an encompassing, novel viewpoint on the musical inspiration transfer among compositions belonging to different artists, genres and time. Then, music is represented as a time series of topological fingerprints, allowing the comparison of pairs of time-varying shapes in both topological and musical terms
APA, Harvard, Vancouver, ISO, and other styles
24

Bergomi, Mattia Giuseppe. "Dynamical and topological tools for (modern) music analysis." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066465/document.

Full text
Abstract:
Cette thèse propose une collection des nouveaux outils pour la représentation musicale. Ces modèles ont deux caractéristiques principales. D'un côté, ils sont inspirés par la géométrie et la topologie. De l'autre côté, ils ont une basse dimensionnalité, afin de garantir une visualisation intuitive des caractéristiques musicales qu'ils représentent. On s'est attaqué au problème de l'analyse musicale à partir de trois points de vue. On a représenté le contrepoint en utilisant des séries temporelles multivariées de matrices de permutations partielles. On a visualisé la conduite des voix en utilisant une classe particulière des tresses partielles et singulières. On donne ensuite une interpretation du Tonnetz comme complex simplicial et on utilise l'homologie persistante, afin de classifier des formes obtenues en déformant les sommets du Tonnetz. Ces déformations sont induites soit par des fonctions qui prennent en compte la nature symbolique de la musique, soit l'interaction symbol/signal. Les modèles basés sur la persistence topologique ont été testés sur une collection hétérogène de bases de données. Ces deux approches sont finalement combinées pour donner un troisième point de vue, qui a donné deux applications. Premièrement, on utilise l'alignement multiple des sequences, pour comparer plusieurs structures harmoniques et sémantiques déduites du signal audio, afin de visualiser et quantifier la propagation d’idée musicales entre artistes, genres et différentes époques. Ensuite on développe la théorie nécessaire pour comparer deux systèmes qui varient dans le temps, en représentant leurs caractéristiques géométriques comme des séries temporelles de diagrammes de persistence
In this work, we suggest a collection of novel models for the representation of music. These models are endowed with two main features. First, they originate from a topological and geometrical inspiration; second, their low dimensionality allows to build simple and informative visualisations. We tackle the problem of music representation following three non-orthogonal directions. First, we propose an interpretation of counterpoint as a multivariate time series of partial permutation matrices, whose observations are characterised by a degree of complexity. After providing both a static and a dynamic representation of counterpoint, voice leadings are reinterpreted as a special class of partial singular braids, and their main features are visualised. Thereafter, we give a topological interpretation of the Tonnetz (a graph commonly used in computational musicology), whose vertices are deformed by both a harmonic and a consonance-oriented function. The shapes derived from these deformations are classified using the formalism of persistent homology. Thus, this novel representation of music is evaluated on a collection of heterogenous musical datasets. Finally, a combination of the two approaches is proposed. A model at the crossroad between the signal and symbolic analysis of music uses multiple sequences alignment to provide an encompassing, novel viewpoint on the musical inspiration transfer among compositions belonging to different artists, genres and time. Then, music is represented as a time series of topological fingerprints, allowing the comparison of pairs of time-varying shapes in both topological and musical terms
APA, Harvard, Vancouver, ISO, and other styles
25

Petitjean, François. "Dynamic time warping : apports théoriques pour l'analyse de données temporelles : application à la classification de séries temporelles d'images satellites." Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD023.

Full text
Abstract:
Les séries temporelles d’images satellites (STIS) sont des données cruciales pour l’observation de la terre. Les séries temporelles actuelles sont soit des séries à haute résolution temporelle (Spot-Végétation, MODIS), soit des séries à haute résolution spatiale (Landsat). Dans les années à venir, les séries temporelles d’images satellites à hautes résolutions spatiale et temporelle vont être produites par le programme Sentinel de l’ESA. Afin de traiter efficacement ces immenses quantités de données qui vont être produites (par exemple, Sentinel-2 couvrira la surface de la terre tous les cinq jours, avec des résolutions spatiales allant de 10m à 60m et disposera de 13 bandes spectrales), de nouvelles méthodes ont besoin d’être développées. Cette thèse se focalise sur la comparaison des profils d’évolution radiométrique, et plus précisément la mesure de similarité « Dynamic Time Warping », qui constitue un outil permettant d’exploiter la structuration temporelle des séries d’images satellites
Satellite Image Time Series are becoming increasingly available and will continue to do so in the coming years thanks to the launch of space missions, which aim at providing a coverage of the Earth every few days with high spatial resolution (ESA’s Sentinel program). In the case of optical imagery, it will be possible to produce land use and cover change maps with detailed nomenclatures. However, due to meteorological phenomena, such as clouds, these time series will become irregular in terms of temporal sampling. In order to consistently handle the huge amount of information that will be produced (for instance, Sentinel-2 will cover the entire Earth’s surface every five days, with 10m to 60m spatial resolution and 13 spectral bands), new methods have to be developed. This Ph.D. thesis focuses on the “Dynamic Time Warping” similarity measure, which is able to take the most of the temporal structure of the data, in order to provide an efficient and relevant analysis of the remotely observed phenomena
APA, Harvard, Vancouver, ISO, and other styles
26

Santos, Irineu Júnior Pinheiro dos. "TRACTS : um método para classificação de trajetórias de objetos móveis usando séries temporais." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2011. http://hdl.handle.net/10183/55445.

Full text
Abstract:
O crescimento do uso de sistemas de posicionamento global (GPS) e outros sistemas de localização espacial tornaram possível o rastreamento de objetos móveis, produzindo um grande volume de um novo tipo de dado, chamado trajetórias de objetos móveis. Existe, entretanto, uma forte lacuna entre a quantidade de dados extraídos destes dispositivos, dotados de sistemas GPS, e a descoberta de conhecimento que se pode inferir com estes dados. Um tipo de descoberta de conhecimento em dados de trajetórias de objetos móveis é a classificação. A classificação de trajetórias é um tema de pesquisa relativamente novo, e poucos métodos tem sido propostos até o presente momento. A maioria destes métodos foi desenvolvido para uma aplicação específica. Poucos propuseram um método mais geral, aplicável a vários domínios ou conjuntos de dados. Este trabalho apresenta um novo método de classificação que transforma as trajetórias em séries temporais, de forma a obter características mais discriminativas para a classificação. Experimentos com dados reais mostraram que o método proposto é melhor do que abordagens existentes.
The growing use of global positioning systems (GPS) and other location systems made the tracking of moving objects possible, producing a large volume of a new kind of data, called trajectories of moving objects. However, there is a large gap between the amount of data generated by these devices and the knowledge that can be inferred from these data. One type of knowledge discovery in trajectories of moving objects is classification. Trajectory classification is a relatively new research subject, and a few methods have been proposed so far. Most of these methods were developed for a specific application. Only a few have proposed a general method, applicable to multiple domains or datasets. This work presents a new classification method that transforms the trajectories into time series, in order to obtain more discriminative features for classification. Experiments with real trajectory data revealed that the proposed approach is more effective than existing approaches.
APA, Harvard, Vancouver, ISO, and other styles
27

Anghinoni, Leandro. "Classificação e previsão de séries temporais através de redes complexas." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/59/59143/tde-11122018-095106/.

Full text
Abstract:
O estudo de séries temporais para a geração de conhecimento é uma área que vem crescendo em importância e complexidade ao longo da última década, à medida que a quantidade de dados armazenados cresce exponencialmente. Considerando este cenário, novas técnicas de mineração de dados têm sido constantemente desenvolvidas para lidar com esta situação. Neste trabalho é proposto o estudo de séries temporais baseado em suas características topológicas, observadas em uma rede complexa gerada com os dados da série temporal. Especificamente, o objetivo do modelo proposto é criar um algoritmo de detecção de tendências para séries temporais estocásticas baseado em detecção de comunidades e caminhadas nesta mesma rede. O modelo proposto apresenta algumas vantagens em relação à métodos tradicionais, como o número adaptativo de classes, com força mensurável, e uma melhor absorção de ruídos. Resultados experimentais em bases artificiais e reais mostram que o método proposto é capaz de classificar as séries temporais em padrões locais e globais, melhorando a previsibilidade das séries ao se utilizar métodos de aprendizado de máquina para a previsão das classes
Extracting knowledge from time series analysis has been growing in importance and complexity over the last decade as the amount of stored data has increased exponentially. Considering this scenario, new data mining techniques have continuously developed to deal with such a situation. In this work, we propose to study time series based on its topological characteristics, observed on a complex network generated from the time series data. Specifically, the aim of the proposed model is to create a trend detection algorithm for stochastic time series based on community detection and network metrics. The proposed model presents some advantages over traditional time series analysis, such as adaptive number of classes with measurable strength and better noise absorption. Experimental results on artificial and real datasets shows that the proposed method is able to classify the time series into local and global patterns, improving the predictability of the series when using machine-learning methods
APA, Harvard, Vancouver, ISO, and other styles
28

Flocon-Cholet, Joachim. "Classification audio sous contrainte de faible latence." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S030/document.

Full text
Abstract:
Cette thèse porte sur la classification audio sous contrainte de faible latence. La classification audio est un sujet qui a beaucoup mobilisé les chercheurs depuis plusieurs années. Cependant, on remarque qu’une grande majorité des systèmes de classification ne font pas état de contraintes temporelles : le signal peut être parcouru librement afin de rassembler les informations nécessaires pour la prise de décision (on parle alors d’une classification hors ligne). Or, on se place ici dans un contexte de classification audio pour des applications liées au domaine des télécommunications. Les conditions d’utilisation sont alors plus sévères : les algorithmes fonctionnent en temps réel et l’analyse du signal et le traitement associé se font à la volée, au fur et à mesure que le signal audio est transmis. De fait, l’étape de classification audio doit également répondre aux contraintes du temps réel, ce qui affecte son fonctionnement de plusieurs manières : l’horizon d’observation du signal se voit nécessairement réduit aux instants présents et à quelques éléments passés, et malgré cela, le système doit être fiable et réactif. Dès lors, la première question qui survient est : quelle stratégie de classification peut-on adopter afin de faire face aux exigences du temps réel ? On retrouve dans littérature deux grandes approches permettant de répondre à des contraintes temporelles plus ou moins fortes : la classification à la trame et la classification sur segment. Dans le cadre d’une classification à la trame, la décision est prise en se basant uniquement sur des informations issues de la trame audio courante. La classification sur segment, elle, exploite une information court-terme en utilisant les informations issues de la trame courante et de quelques trames précédentes. La fusion des données se fait via un processus d’intégration temporelle qui consiste à extraire une information pertinente basée sur l’évolution temporelle des descripteurs audio. À partir de là, on peut s’interroger pour savoir quelles sont les limites de ces stratégies de classification ? Une classification à la trame et une classification sur segment peuvent-elles être utilisées quel que soit le contexte ? Est-il possible d’obtenir des performances convenables avec ces deux approches ? Quelle mode de classification permet de produire le meilleur rapport entre performance de classification et réactivité ? Aussi, pour une classification sur segment, le processus d’intégration temporelle repose principalement sur des modélisation statistiques mais serait-il possible de proposer d’autres approches ? L’exploration de ce sujet se fera à travers plusieurs cas d’étude concrets. Tout d’abord, dans le cadre des projets de recherche à Orange Labs, nous avons pu contribuer au développement d’un nouvel algorithme de protection acoustique, visant à supprimer très rapidement des signaux potentiellement dangereux pour l’auditeur. La méthode mise au point, reposant sur la proposition de trois descripteurs audio, montre un taux de détection élevé tout en conservant un taux de fausse alarme très bas, et ce, quelles que soient les conditions d’utilisation. Par la suite, nous nous sommes intéressés plus en détail à l’utilisation de l’intégration temporelle des descripteurs dans un cadre de classification audio faible latence. Pour cela, nous avons proposé et évalué plusieurs méthodologies d’utilisation de l’intégration temporelle permettant d’obtenir le meilleur compromis entre performance globale et réactivité. Enfin, nous proposons une autre manière d’exploiter l’information temporelle des descripteurs. L’approche proposée s’appuie sur l’utilisation des représentations symboliques permettant de capter la structure temporelle des séries de descripteurs. L’idée étant ensuite de rechercher des motifs temporels caractéristiques des différentes classes audio. Les expériences réalisées montrent le potentiel de cette approche
This thesis focuses on audio classification under low-latency constraints. Audio classification has been widely studied for the past few years, however, a large majority of the existing work presents classification systems that are not subject to temporal constraints : the audio signal can be scanned freely in order to gather the needed information to perform the decision (in that case, we may refer to an offline classification). Here, we consider audio classification in the telecommunication domain. The working conditions are now more severe : algorithms work in real time and the analysis and processing steps are now operated on the fly, as long as the signal is transmitted. Hence, the audio classification step has to meet the real time constraints, which can modify its behaviour in different ways : only the current and the past observations of the signal are available, and, despite this fact the classification system has to remain reliable and reactive. Thus, the first question that occurs is : what strategy for the classification can we adopt in order to tackle the real time constraints ? In the literature, we can find two main approaches : the frame-level classification and the segment-level classification. In the frame-level classification, the decision is performed using only the information extracted from the current audio frame. In the segment-level classification, we exploit a short-term information using data computed from the current and few past frames. The data fusion here is obtained using the process of temporal feature integration which consists of deriving relevant information based on the temporal evolution of the audio features. Based on that, there are several questions that need to be answered. What are the limits of these two classification framework ? Can an frame-level classification and a segment-level be used efficiently for any classification task ? Is it possible to obtain good performance with these approaches ? Which classification framework may lead to the best trade-off between accuracy and reactivity ? Furthermore, for the segment-level classification framework, the temporal feature integration process is mainly based on statistical models, but would it be possible to propose other methods ? Throughout this thesis, we investigate this subject by working on several concrete case studies. First, we contribute to the development of a novel audio algorithm dedicated to audio protection. The purpose of this algorithm is to detect and suppress very quickly potentially dangerous sounds for the listener. Our method, which relies on the proposition of three features, shows high detection rate and low false alarm rate in many use cases. Then, we focus on the temporal feature integration in a low-latency framework. To that end, we propose and evaluate several methodologies for the use temporal integration that lead to a good compromise between performance and reactivity. Finally, we propose a novel approach that exploits the temporal evolution of the features. This approach is based on the use of symbolic representation that can capture the temporal structure of the features. The idea is thus to find temporal patterns that are specific to each audio classes. The experiments performed with this approach show promising results
APA, Harvard, Vancouver, ISO, and other styles
29

Do, Cao Tri. "Apprentissage de métrique temporelle multi-modale et multi-échelle pour la classification robuste de séries temporelles par plus proches voisins." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM028/document.

Full text
Abstract:
La définition d'une métrique entre des séries temporelles est un élément important pour de nombreuses tâches en analyse ou en fouille de données, tel que le clustering, la classification ou la prédiction. Les séries temporelles présentent naturellement différentes caractéristiques, que nous appelons modalités, sur lesquelles elles peuvent être comparées, comme leurs valeurs, leurs formes ou leurs contenus fréquentielles. Ces caractéristiques peuvent être exprimées avec des délais variables et à différentes granularités ou localisations temporelles - exprimées globalement ou localement. Combiner plusieurs modalités à plusieurs échelles pour apprendre une métrique adaptée est un challenge clé pour de nombreuses applications réelles impliquant des données temporelles. Cette thèse propose une approche pour l'Apprentissage d'une Métrique Multi-modal et Multi-scale (M2TML) en vue d'une classification robuste par plus proches voisins. La solution est basée sur la projection des paires de séries temporelles dans un espace de dissimilarités, dans lequel un processus d'optimisation à vaste marge est opéré pour apprendre la métrique. La solution M2TML est proposée à la fois dans le contexte linéaire et non-linéaire, et est étudiée pour différents types de régularisation. Une variante parcimonieuse et interprétable de la solution montre le potentiel de la métrique temporelle apprise à pouvoir localiser finement les modalités discriminantes, ainsi que leurs échelles temporelles en vue de la tâche d'analyse considérée. L'approche est testée sur un vaste nombre de 30 bases de données publiques et challenging, couvrant des images, traces, données ECG, qui sont linéairement ou non-linéairement séparables. Les expériences montrent l'efficacité et le potentiel de la méthode M2TML pour la classification de séries temporelles par plus proches voisins
The definition of a metric between time series is inherent to several data analysis and mining tasks, including clustering, classification or forecasting. Time series data present naturally several characteristics, called modalities, covering their amplitude, behavior or frequential spectrum, that may be expressed with varying delays and at different temporal granularity and localization - exhibited globally or locally. Combining several modalities at multiple temporal scales to learn a holistic metric is a key challenge for many real temporal data applications. This PhD proposes a Multi-modal and Multi-scale Temporal Metric Learning (M2TML) approach for robust time series nearest neighbors classification. The solution is based on the embedding of pairs of time series into a pairwise dissimilarity space, in which a large margin optimization process is performed to learn the metric. The M2TML solution is proposed for both linear and non linear contexts, and is studied for different regularizers. A sparse and interpretable variant of the solution shows the ability of the learned temporal metric to localize accurately discriminative modalities as well as their temporal scales.A wide range of 30 public and challenging datasets, encompassing images, traces and ECG data, that are linearly or non linearly separable, are used to show the efficiency and the potential of M2TML for time series nearest neighbors classification
APA, Harvard, Vancouver, ISO, and other styles
30

Giusti, Rafael. "Classicação de séries temporais utilizando diferentes representações de dados e ensembles." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-05122017-170029/.

Full text
Abstract:
Dados temporais são ubíquos em quase todas as áreas do conhecimento humano. A área de aprendizado de máquina tem contribuído para a mineração desse tipo de dados com algoritmos para classificação, agrupamento, detecção de anomalias ou exceções e detecção de padrões recorrentes, dentre outros. Tais algoritmos dependem, muitas vezes, de uma função capaz de expressar um conceito de similaridade entre os dados. Um dos mais importantes modelos de classificação, denominado 1-NN, utiliza uma função de distância para comparar uma série temporal de interesse a um conjunto de referência, atribuindo à primeira o rótulo da série de referência mais semelhante. Entretanto, existem situações nas quais os dados temporais são insuficientes para identificar vizinhos de acordo com o conceito associado às classes. Uma possível abordagem é transportar as séries para um domínio de representação no qual atributos mais relevantes para a classificação são mais claros. Por exemplo, uma série temporal pode ser decomposta em componentes periódicas de diferentes frequências e amplitudes. Para muitas aplicações, essas componentes são muito mais significativas na discriminação das classes do que a evolução da série ao longo do tempo. Nesta Tese, emprega-se diversidade de representações e de distâncias para a classificação de séries temporais. Com base na escolha de uma representação de dados adequada para expor as características discriminativas do domínio, pode-se obter classificadores mais fiéis ao conceitoalvo. Para esse fim, promove-se um estudo de domínios de representação de dados temporais, visando identificar como esses domínios podem estabelecer espaços alternativos de decisão. Diferentes modelos do classificador 1-NN são avaliados isoladamente e associados em ensembles de classificadores a fim de se obter classificadores mais robustos. Funções de distância e domínios alternativos de representação são também utilizados neste trabalho para produzir atributos não temporais, denominados atributos de distâncias. Esses atributos refletem conceitos de vizinhança aos exemplos do conjunto de treinamento e podem ser utilizados para treinar modelos de classificação que tipicamente não são eficazes quando treinados com as observações originais. Nesta Tese mostra-se que atributos de distância permitem obter resultados compatíveis com o estado-da-arte.
Temporal data are ubiquitous in nearly all areas of human knowledge. The research field known as machine learning has contributed to temporal data mining with algorithms for classification, clustering, anomaly or exception detection, and motif detection, among others. These algorithms oftentimes are reliant on a distance function that must be capable of expressing a similarity concept among the data. One of the most important classification models, the 1-NN, employs a distance function when comparing a time series of interest against a reference set, and assigns to the former the label of the most similar reference time series. There are, however, several domains in which the temporal data are insufficient to characterize neighbors according to the concepts associated to the classes. One possible approach to this problem is to transform the time series into a representation domain in which the meaningful attributes for the classifier are more clearly expressed. For instance, a time series may be decomposed into periodic components of different frequency and amplitude values. For several applications, those components are much more meaningful in discriminating the classes than the temporal evolution of the original observations. In this work, we employ diversity of representation and distance functions for the classification of time series. By choosing a data representation that is more suitable to express the discriminating characteristics of the domain, we are able to achieve classification that are more faithful to the target-concept. With this goal in mind, we promote a study of time series representation domains, and we evaluate how such domains can provide alternative decision spaces. Different models of the 1-NN classifier are evaluated both isolated and associated in classification ensembles in order to construct more robust classifiers. We also use distance functions and alternative representation domains in order to extract nontemporal attributes, known as distance features. Distance features reflect neighborhood concepts of the instances to the training samples, and they may be used to induce classification models which are typically not as efficient when trained with the original time series observations. We show that distance features allow for classification results compatible with the state-of-the-art.
APA, Harvard, Vancouver, ISO, and other styles
31

Dachraoui, Asma. "Cost-Sensitive Early classification of Time Series." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA002/document.

Full text
Abstract:
Dans de nombreux domaines dans lesquels les mesures ou les données sont disponibles séquentiellement, il est important de savoir décider le plus tôt possible, même si c’est à partir d’informations encore incomplètes. C’est le cas par exemple en milieu hospitalier où l’apprentissage de règles de décision peut se faire à partir de cas complètement documentés, mais où, devant un nouveau patient, il peut être crucial de prendre une dé- cision très rapidement. Dans ce type de contextes, un compromis doit être optimisé entre la possibilité d’arriver à une meilleure décision en attendant des mesures supplé- mentaires, et le coût croissant associé à chaque nouvelle mesure. Nous considérons dans cette thèse un nouveau cadre général de classification précoce de séries temporelles où le coût d’attente avant de prendre une décision est explicitement pris en compte lors de l’optimisation du compromis entre la qualité et la précocité de prédictions. Nous proposons donc un critère formel qui exprime ce compromis, ainsi que deux approches différentes pour le résoudre. Ces approches sont intéressantes et apportent deux propriétés désirables pour décider en ligne : (i) elles estiment en ligne l’instant optimal dans le futur où une minimisation du critère peut être prévue. Elles vont donc au-delà des approches classiques qui décident d’une façon myope, à chaque instant, d’émettre une prédiction ou d’attendre plus d’information, (ii) ces approches sont adaptatives car elles prennent en compte les propriétés de la série temporelle en entrée pour estimer l’instant optimal pour la classifier. Des expériences extensives sur des données contrôlées et sur des données réelles montrent l’intérêt de ces approches pour fournir des prédictions précoces, fiables, adaptatives et non myopes, ce qui est indispensable dans de nombreuses applications
Early classification of time series is becoming increasingly a valuable task for assisting in decision making process in many application domains. In this setting, information can be gained by waiting for more evidences to arrive, thus helping to make better decisions that incur lower misclassification costs, but, meanwhile, the cost associated with delaying the decision generally increases, rendering the decision less attractive. Making early predictions provided that are accurate requires then to solve an optimization problem combining two types of competing costs. This thesis introduces a new general framework for time series early classification problem. Unlike classical approaches that implicitly assume that misclassification errors are cost equally and the cost of delaying the decision is constant over time, we cast the the problem as a costsensitive online decision making problem when delaying the decision is costly. We then propose a new formal criterion, along with two approaches that estimate the optimal decision time for a new incoming yet incomplete time series. In particular, they capture the evolutions of typical complete time series in the training set thanks to a segmentation technique that forms meaningful groups, and leverage these complete information to estimate the costs for all future time steps where data points still missing. These approaches are interesting in two ways: (i) they estimate, online, the earliest time in the future where a minimization of the criterion can be expected. They thus go beyond the classical approaches that myopically decide at each time step whether to make a decision or to postpone the call one more time step, and (ii) they are adaptive, in that the properties of the incoming time series are taken into account to decide when is the optimal time to output a prediction. Results of extensive experiments on synthetic and real data sets show that both approaches successfully meet the behaviors expected from early classification systems
APA, Harvard, Vancouver, ISO, and other styles
32

Mousheimish, Raef. "Combinaison de l’Internet des objets, du traitement d’évènements complexes et de la classification de séries temporelles pour une gestion proactive de processus métier." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV073/document.

Full text
Abstract:
L’internet des objets est au coeur desprocessus industriels intelligents grâce à lacapacité de détection d’évènements à partir dedonnées de capteurs. Cependant, beaucoup resteà faire pour tirer le meilleur parti de cettetechnologie récente et la faire passer à l’échelle.Cette thèse vise à combler le gap entre les fluxmassifs de données collectées par les capteurs etleur exploitation effective dans la gestion desprocessus métier. Elle propose une approcheglobale qui combine le traitement de flux dedonnées, l’apprentissage supervisé et/oul’utilisation de règles sur des évènementscomplexes permettant de prédire (et doncéviter) des évènements indésirables, et enfin lagestion des processus métier étendue par cesrègles complexes.Les contributions scientifiques de cette thèse sesituent dans différents domaines : les processusmétiers plus intelligents et dynamiques; letraitement d’évènements complexes automatisépar l’apprentissage de règles; et enfin et surtout,dans le domaine de la fouille de données deséries temporelles multivariéespar la prédiction précoce de risques.L’application cible de cette thèse est le transportinstrumenté d’oeuvres d’art
Internet of things is at the core ofsmart industrial processes thanks to its capacityof event detection from data conveyed bysensors. However, much remains to be done tomake the most out of this recent technologyand make it scale. This thesis aims at filling thegap between the massive data flow collected bysensors and their effective exploitation inbusiness process management. It proposes aglobal approach, which combines stream dataprocessing, supervised learning and/or use ofcomplex event processing rules allowing topredict (and thereby avoid) undesirable events,and finally business process managementextended to these complex rules. The scientificcontributions of this thesis lie in several topics:making the business process more intelligentand more dynamic; automation of complexevent processing by learning the rules; and lastand not least, in datamining for multivariatetime series by early prediction of risks. Thetarget application of this thesis is theinstrumented transportation of artworks
APA, Harvard, Vancouver, ISO, and other styles
33

Kallas, Maya. "Méthodes à noyaux en reconnaissance de formes, prédiction et classification : applications aux biosignaux." Troyes, 2012. http://www.theses.fr/2012TROY0026.

Full text
Abstract:
Le foisonnement des méthodes à noyaux réside dans l’astuce du noyau, induisant implicitement une transformation non-linéaire à coût calculatoire réduit. Cependant, la transformation inverse est souvent cruciale. La résolution de ce problème, dit de pré-image, permet de nouveaux domaines d’applications de ces méthodes. L’objectif de cette thèse est de montrer que les récentes avancées en théorie de l’apprentissage statistique apportent des solutions pertinentes à plusieurs problèmes soulevés en traitement du signal et des images. La première partie porte sur la résolution du problème de pré-image avec contraintes imposées par la physiologie. En particulier, la nonnégativité est probablement la plus couramment énoncée. Les contraintes de nonnégativité du résultat ainsi que celles de l’additivité des contributions, induisant une certaine parcimonie, sont étudiées. La seconde partie porte sur l’analyse de séries temporelles, selon une approche prédictive. Des modèles autorégressifs sont élaborés dans l’espace transformé, la prédiction nécessitant la résolution du problème de pré-image. Deux modèles à noyaux de prédiction sont considérés : le premier basé sur le problème de moindres carrés, et le second sur les équations de Yule-Walker. La dernière partie traite le problème de classification d’électrocardiogrammes, afin d’y détecter des anomalies. La détection et la classification multi-classes sont examinées au jour des machines à vecteurs supports et des cartes d’auto-organisation
The proliferation of kernel methods lies essentially on the kernel trick, which induces an implicit nonlinear transformation with reduced computational cost. Still, the inverse transformation is often necessary. The resolution of this so-called pre-image problem enables new fields of applications of these methods. The main purpose of this thesis is to show that recent advances in statistical learning theory provide relevant solutions to several issues raised in signal and image processing. The first part focuses on the pre-image problem, and on solutions with constraints imposed by physiology. The non-negativity is probably the most commonly stated constraints when dealing with natural signals and images. Nonnegativity constraints on the result, as well as on the additivity of the contributions, are studied. The second part focuses on time series analysis according to a predictive approach. Autoregressive models are developed in the transformed space, while the prediction requires solving the pre-image problem. Two kernelbased predictive models are considered: the first one is derived by solving a least-squares problem, and the second one by providing the adequate Yule-Walker equations. The last part deals with the classification task for electrocardiograms, in order to detect anomalies. Detection and multi-class classification are explored in the light of support vector machines and self-organizing maps
APA, Harvard, Vancouver, ISO, and other styles
34

Silva, Diego Furtado. "Classificação de séries temporais por similaridade e extração de atributos com aplicação na identificação automática de insetos." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-28042014-142456/.

Full text
Abstract:
Um dos grandes desafios em mineração de dados é a integração de dados temporais ao seu processo. Existe um grande número de aplicações emergentes que envolvem dados temporais, incluindo a identificação de transações fraudulentas em cartões de crédito e ligações telefônicas, a detecção de intrusão em sistemas computacionais, a predição de estruturas secundárias de proteínas, a análise de dados provenientes de sensores, entre muitas outras. Neste trabalho, tem-se interesse na classificação de séries temporais que representam sinais de áudio. Como aplicação principal, tem-se interesse em classificar sinais de insetos coletados por um sensor óptico, que deve ser capaz de contar e classificar os insetos de maneira automática. Apesar de serem coletados opticamente, os sinais capturados se assemelham a sinais de áudio. O objetivo desta pesquisa é comparar métodos de classificação por similaridade e por extração de atributos que possam ser utilizados no contexto da classificação de insetos. Para isso, foram empregados os principais métodos de classificação de sinais de áudio, que têm sido propostos para problemas como reconhecimento de instrumentos musicais, fala e espécies animais. Neste trabalho, é mostrado que, de modo geral, a abordagem por extração de atributos é mais eficaz do que a classificação por similaridade. Mais especificamente, os melhores resultados são obtidos com a utilização de coeficientes mel-cepstrais. Este trabalho apresenta contribuições significativas em outras aplicações, também relacionadas à análise de séries temporais e sinais de áudio, por similaridade e por extração de atributos
One of the major challenges in data mining is the integration of temporal data to its process. There are a number of emerging applications that involve temporal data, including fraud detection in credit card transactions and phone calls, intrusion detection in computer systems, the prediction of secondary structures of proteins, the analysis of data from sensors, and many others. In this work, our main interest is the classification of time series that represent audio signals. Our main interest is an application for classifying signals of insects collected from an optical sensor, which should count and classify insects automatically. Although these signals are optically collected, they resemble audio signals. The objective of this research is to compare classification methods based on similarity and feature extraction in the context of insects classification. For this purpose, we used the main classification methods for audio signals, which have been proposed for problems such as musical instrument, speech and animal species recognition. This work shows that, in general, the approach based on feature extraction is more accurate than the classification by similarity. More specifically, the best results are obtained with mel-frequency cepstrum coefficients. This work also presents significant contributions in other applications, also related to the analysis of time series and audio signals by similarity and feature extraction
APA, Harvard, Vancouver, ISO, and other styles
35

Masse, Antoine. "Développement et automatisation de méthodes de classification à partir de séries temporelles d'images de télédétection - Application aux changements d'occupation des sols et à l'estimation du bilan carbone." Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00921853.

Full text
Abstract:
La quantité de données de télédétection archivées est de plus en plus importante et grâce aux nouveaux et futurs satellites, ces données offriront une plus grande diversité de caractéristiques : spectrale, temporelle, résolution spatiale et superficie de l'emprise du satellite. Cependant, il n'existe pas de méthode universelle qui maximise la performance des traitements pour tous les types de caractéristiques citées précédemment; chaque méthode ayant ses avantages et ses inconvénients. Les travaux de cette thèse se sont articulés autour de deux grands axes que sont l'amélioration et l'automatisation de la classification d'images de télédétection, dans le but d'obtenir une carte d'occupation des sols la plus fiable possible. En particulier, les travaux ont portés sur la la sélection automatique de données pour la classification supervisée, la fusion automatique d'images issues de classifications supervisées afin de tirer avantage de la complémentarité des données multi-sources et multi-temporelles et la classification automatique basée sur des séries temporelles et spectrales de référence, ce qui permettra la classification de larges zones sans référence spatiale. Les méthodes ont été testées et validées sur un panel de données très variées de : capteurs : optique (Formosat-2, Spot 2/4/5, Landsat 5/7, Worldview-2, Pleiades) et radar (Radarsat,Terrasar-X), résolutions spatiales : de haute à très haute résolution (de 30 mètres à 0.5 mètre), répétitivités temporelles (jusqu'à 46 images par an) et zones d'étude : agricoles (Toulouse, Marne), montagneuses (Pyrénées), arides (Maroc, Algérie). Deux applications majeures ont été possibles grâce à ces nouveaux outils : l'obtention d'un bilan carbone à partir des rotations culturales obtenues sur plusieurs années et la cartographie de la trame verte (espaces écologiques) dans le but d'étudier l'impact du choix du capteur sur la détection de ces éléments.
APA, Harvard, Vancouver, ISO, and other styles
36

Breton, Marc. "Application de méthodes de classification par séries temporelles au diagnostic médical et à la détection de changements statistiques et étude de la robustesse." Ecole Centrale de Lille, 2004. http://www.theses.fr/2004ECLI0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Bleakley, Kevin. "Quelques contributions à l'analyse statistique et à la classification des graphes et des courbes : applications à l'immunobiologie et à la reconstruction des réseaux biologiques." Montpellier 2, 2007. http://www.theses.fr/2007MON20209.

Full text
Abstract:
Cette thèse propose un ensemble de résultats dans le domaine de l'apprentissage statistique et de la classification supervisée, tant du point de vue théorique que du point de vue de l'algorithmique et des applications sur données réelles. Elle se décompose en deux projets de recherche indépendants. Le premier projet, qui porte sur des travaux de nature essentiellement théorique, trouve sa source dans le domaine de la reconstruction des réseaux biologiques et dans l'analyse et la classification des séries temporelles. Le second projet présente les résultats d'une étude statistique réalisée en collaboration avec une équipe d'immunobiologistes de l'Université Montpellier II, où il a s'agit d'analyser, étape par étape, les processus de réarrangement de gènes au sein des jonctions des récepteurs T de notre système immunitaire. La nouveauté de ce domaine nous a amenés à proposer un système de notations pour les variables biologiques d'intérêt et à développer des méthodes d'analyses statistiques visant à mieux comprendre les processus physiques impliqués dans ces réarrangements dont les mécanismes sont encore très mal connus
This thesis proposes a set of results in the domain of statistical learning and supervised classification, both from a theoretical and an algorithmic point of view, along with several real-world applications. The thesis is divided into two independent research projects. The first project, essentially theoretical, involves studies into the reconstruction of biological networks, as well as the analysis and classification of time series. The second project presents the results of a statistical study undertaken in collaboration with immunobiologists from Montpellier University 2, in which a step by step analysis of the rearrangement of genes in the formation of T cell receptor junctions was undertaken. Since this domain is very young, we had to first propose a system of notation for the biological variables of interest. We then developed statistical analysis methods aiming to better understand the physical processes implicated in these rearrangements, which are at present little-understood
APA, Harvard, Vancouver, ISO, and other styles
38

Goffinet, Étienne. "Clustering multi-blocs et visualisation analytique de données séquentielles massives issues de simulation du véhicule autonome." Thesis, Paris 13, 2021. http://www.theses.fr/2021PA131090.

Full text
Abstract:
La validation des systèmes avancés d’aide à la conduite reste l’un des plus grands défis que les constructeurs automobiles doivent relever pour fournir des voitures autonomes sûres. La validation fiable de ces systèmes nécessite d’évaluer la qualité et la cohérence de leur réaction dans un large éventail de scénarios de conduite. Dans ce contexte, les systèmes de simulation à grande échelle contournent les limites de la validation physique et produisent d’importantes quantités de séries temporelles en haute dimension. Le défi est de trouver des informations utiles dans ces ensembles de données multivariées non étiquetées qui peuvent contenir des variables bruitées, parfois corrélées ou non informatives. Cette thèse propose plusieurs outils basés sur des modèles probabilistes pour le regroupement non-supervisé de séries temporelles univariées et multivariées, basés sur une approche Dictionnaire ou dans un cadre bayésien non paramétrique. L’objectif est de trouver automatiquement des groupes pertinents et naturels de comportements de conduite et, dans le cas multivarié, d’effectuer une sélection de modèles et une réduction de la dimension des séries temporelles multivariées. Les méthodes sont expérimentées sur des jeux de données simulés et appliquées à des cas d’usage industriels du Groupe Renault
Advanced driving-assistance systems validation remains one of the biggest challenges car manufacturers must tackle to provide safe driverless cars. The reliable validation of these systems requires to assess their reaction’s quality and consistency to a broad spectrum of driving scenarios. In this context, large-scale simulation systems bypass the physical «on-tracks» limitations and produce important quantities of high-dimensional time series data. The challenge is to find valuable information in these multivariate unlabelled datasets that may contain noisy, sometimes correlated or non-informative variables. This thesis propose several model-based tool for univariate and multivariate time series clustering based on a Dictionary approach or Bayesian Non Parametric framework. The objective is to automatically find relevant and natural groups of driving behaviors and, in the multivariate case, to perform a model selection and multivariate time series dimension reduction. The methods are experimented on simulated datasets and applied on industrial use cases from Groupe Renault Coclustering
APA, Harvard, Vancouver, ISO, and other styles
39

Derksen, Dawa. "Classification contextuelle de gros volumes de données d'imagerie satellitaire pour la production de cartes d'occupation des sols sur de grandes étendues." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30290.

Full text
Abstract:
Ce travail étudie l'application de la classification supervisée pour la production de cartes d'occupation des sols à partir de séries temporelles d'images satellitaires à haute résolution spatiale, spectrale, et temporelle. Sur ce problème, certaines classes, par exemple, les classes urbaines, dépendent plus du contexte des pixels que de leur contenu. L'enjeu de la thèse est la prise en compte du voisinage du pixel, pour améliorer la précision de ces classes. Cette recherche nous mène dans un premier temps à questionner la définition du voisinage, et à imaginer différentes formes. Ensuite, il s'agit de décrire le voisinage, c'est à dire de créer une représentation ou un modèle qui permette de reconnaître les classes ciblées. Les combinaisons de ces deux aspects sont évaluées sur deux jeux de données expérimentales, un sur de l'imagerie Sentinel-2, et un sur une image SPOT-7
This work studies the application of supervised classification for the production of land cover maps using time series of satellite images at high spatial, spectral, and temporal resolutions. On this problem, certain classes such as urban cover, depend more on the context of the pixel than its content. The issue of this Ph.D. work is therefore to take into account the neighborhood of the pixel, to improve the recognition rates of these classes. This research first leads to question the definition of the context, and to imagine different possible shapes for it. Then comes describing the context, that is to say to create a representation or a model that allows the target classes to be recognized. The combinations of these two aspects are evaluated on two experimental data sets, one on Sentinel-2 images, and the other on SPOT-7 images
APA, Harvard, Vancouver, ISO, and other styles
40

Melzi, Fateh. "Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1123/document.

Full text
Abstract:
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations
Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
APA, Harvard, Vancouver, ISO, and other styles
41

Pelletier, Charlotte. "Cartographie de l'occupation des sols à partir de séries temporelles d'images satellitaires à hautes résolutions : identification et traitement des données mal étiquetées." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30241/document.

Full text
Abstract:
L'étude des surfaces continentales est devenue ces dernières années un enjeu majeur à l'échelle mondiale pour la gestion et le suivi des territoires, notamment en matière de consommation des terres agricoles et d'étalement urbain. Dans ce contexte, les cartes d'occupation du sol caractérisant la couverture biophysique des terres émergées jouent un rôle essentiel pour la cartographie des surfaces continentales. La production de ces cartes sur de grandes étendues s'appuie sur des données satellitaires qui permettent de photographier les surfaces continentales fréquemment et à faible coût. Le lancement de nouvelles constellations satellitaires - Landsat-8 et Sentinel-2 - permet depuis quelques années l'acquisition de séries temporelles à hautes résolutions. Ces dernières sont utilisées dans des processus de classification supervisée afin de produire les cartes d'occupation du sol. L'arrivée de ces nouvelles données ouvre de nouvelles perspectives, mais questionne sur le choix des algorithmes de classification et des données à fournir en entrée du système de classification. Outre les données satellitaires, les algorithmes de classification supervisée utilisent des échantillons d'apprentissage pour définir leur règle de décision. Dans notre cas, ces échantillons sont étiquetés, \ie{} la classe associée à une occupation des sols est connue. Ainsi, la qualité de la carte d'occupation des sols est directement liée à la qualité des étiquettes des échantillons d'apprentissage. Or, la classification sur de grandes étendues nécessite un grand nombre d'échantillons, qui caractérise la diversité des paysages. Cependant, la collecte de données de référence est une tâche longue et fastidieuse. Ainsi, les échantillons d'apprentissage sont bien souvent extraits d'anciennes bases de données pour obtenir un nombre conséquent d'échantillons sur l'ensemble de la surface à cartographier. Cependant, l'utilisation de ces anciennes données pour classer des images satellitaires plus récentes conduit à la présence de nombreuses données mal étiquetées parmi les échantillons d'apprentissage. Malheureusement, l'utilisation de ces échantillons mal étiquetés dans le processus de classification peut engendrer des erreurs de classification, et donc une détérioration de la qualité de la carte produite. L'objectif général de la thèse vise à améliorer la classification des nouvelles séries temporelles d'images satellitaires à hautes résolutions. Le premier objectif consiste à déterminer la stabilité et la robustesse des méthodes de classification sur de grandes étendues. Plus particulièrement, les travaux portent sur l'analyse d'algorithmes de classification et la sensibilité de ces algorithmes vis-à-vis de leurs paramètres et des données en entrée du système de classification. De plus, la robustesse de ces algorithmes à la présence des données imparfaites est étudiée. Le second objectif s'intéresse aux erreurs présentes dans les données d'apprentissage, connues sous le nom de données mal étiquetées. Dans un premier temps, des méthodes de détection de données mal étiquetées sont proposées et étudiées. Dans un second temps, un cadre méthodologique est proposé afin de prendre en compte les données mal étiquetées dans le processus de classification. L'objectif est de réduire l'influence des données mal étiquetées sur les performances de l'algorithme de classification, et donc d'améliorer la carte d'occupation des sols produite
Land surface monitoring is a key challenge for diverse applications such as environment, forestry, hydrology and geology. Such monitoring is particularly helpful for the management of territories and the prediction of climate trends. For this purpose, mapping approaches that employ satellite-based Earth Observations at different spatial and temporal scales are used to obtain the land surface characteristics. More precisely, supervised classification algorithms that exploit satellite data present many advantages compared to other mapping methods. In addition, the recent launches of new satellite constellations - Landsat-8 and Sentinel-2 - enable the acquisition of satellite image time series at high spatial and spectral resolutions, that are of great interest to describe vegetation land cover. These satellite data open new perspectives, but also interrogate the choice of classification algorithms and the choice of input data. In addition, learning classification algorithms over large areas require a substantial number of instances per land cover class describing landscape variability. Accordingly, training data can be extracted from existing maps or specific existing databases, such as crop parcel farmer's declaration or government databases. When using these databases, the main drawbacks are the lack of accuracy and update problems due to a long production time. Unfortunately, the use of these imperfect training data lead to the presence of mislabeled training instance that may impact the classification performance, and so the quality of the produced land cover map. Taking into account the above challenges, this Ph.D. work aims at improving the classification of new satellite image time series at high resolutions. The work has been divided into two main parts. The first Ph.D. goal consists in studying different classification systems by evaluating two classification algorithms with several input datasets. In addition, the stability and the robustness of the classification methods are discussed. The second goal deals with the errors contained in the training data. Firstly, methods for the detection of mislabeled data are proposed and analyzed. Secondly, a filtering method is proposed to take into account the mislabeled data in the classification framework. The objective is to reduce the influence of mislabeled data on the classification performance, and thus to improve the produced land cover map
APA, Harvard, Vancouver, ISO, and other styles
42

Conti, José Carlos 1966. "Eficácia de medidas de similaridade para a classificação de séries temporais associadas ao comportamento fenológico de plantas." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/267746.

Full text
Abstract:
Orientadores: Luiz Camolesi Júnior, Ricardo da Silva Torres
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Tecnologia
Made available in DSpace on 2018-08-24T02:27:51Z (GMT). No. of bitstreams: 1 Conti_JoseCarlos_M.pdf: 2108170 bytes, checksum: 16e7093192986c856bf2d3675ef2a605 (MD5) Previous issue date: 2013
Resumo: Fenologia é o estudo de fenômenos naturais periódicos e sua relação com o clima. Nos últimos anos, tem se apresentado relevante como o indicador mais simples e confiável dos efeitos das mudanças climáticas em plantas e animais. É nesse contexto que se destaca o e-phenology, um projeto multidisciplinar envolvendo pesquisas na área de computação e fenologia. Suas principais características são: o uso de novas tecnologias de monitoramento ambiental, o fornecimento de modelos, métodos e algoritmos para apoiar o gerenciamento, a integração e a análise remota de dados de fenologia, além da criação de um protocolo para um programa de monitoramento de fenologia. Do ponto de vista da computação, as pesquisas científicas buscam modelos, ferramentas e técnicas baseadas em processamento de imagem, extraindo e indexando características de imagens associadas a diferentes tipos de vegetação, além de se concentrar no gerenciamento e mineração de dados e no processamento de séries temporais. Diante desse cenário, esse trabalho especificamente, tem como objetivo investigar a eficácia de medidas de similaridade para a classificação de séries temporais sobre fenômenos fenológicos caracterizados por vetores de características extraídos de imagens de vegetação. Os cálculos foram realizados considerando regiões de imagens de vegetação e foram considerados diferentes critérios de avaliação: espécies de planta, hora do dia e canais de cor. Os resultados obtidos oferecem algumas possibilidades de análise, porém na visão geral, a medida de distância Edit Distance with Real Penalty (ERP) apresentou o índice de acerto mais alto com 29,90%. Adicionalmente, resultados obtidos mostram que as primeiras horas do dia e no final da tarde, provavelmente devido à luminosidade, apresentam os índices de acerto mais altos para todas as visões de análise
Abstract: Phenology is the study of periodic natural phenomena and their relationship to climate. In recent years, it has gained importance as the more simple and reliable indicator of effects of climate changes on plants and animals. In this context, we emphasizes the e-phenology, a multidisciplinary research project in computer science and phenology. Its main characteristics are: The use of new technologies for environmental monitoring, providing models, methods and algorithms to support management, integration and remote analysis of data on phenology, and the creation a protocol for a program to monitoring phenology. From the computer science point of view, the e-phenology project has been dedicated to creating models, tools and techniques based on image processing algorithms, extracting and indexing image features associated with different types of vegetation, and implementing data mining algorithms for processing time series. This project has as main goal to investigate the effectiveness of similarity measures for the classification of time series associated with phenological phenomena characterized by feature vectors extracted from images. Conducted experiments considered different regions containing individuals of different species and considering different criteria such as: plant species, time of day and color channels. Obtained results show that the Edit Distance with Real Penalty (ERP) distance measure yields the highest accuracy. Additionally, the analyzes show that in the early morning and late afternoon, probably due to light conditions, it can be observed the highest accuracy rates for all views analysis
Mestrado
Tecnologia e Inovação
Mestre em Tecnologia
APA, Harvard, Vancouver, ISO, and other styles
43

Masse, Antoine. "Développement et automatisation de méthodes de classification à partir de séries temporelles d'images de télédétection : application aux changements d'occupation des sols et à l'estimation du bilan carbone." Phd thesis, Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2106/.

Full text
Abstract:
La quantité de données de télédétection archivées est de plus en plus importante et grâce aux nouveaux et futurs satellites, ces données offriront une plus grande diversité de caractéristiques : spectrale, temporelle, résolution spatiale et superficie de l'emprise du satellite. Cependant, il n'existe pas de méthode universelle qui maximise la performance des traitements pour tous les types de caractéristiques citées précédemment; chaque méthode ayant ses avantages et ses inconvénients. Les travaux de cette thèse se sont articulés autour de deux grands axes que sont l'amélioration et l'automatisation de la classification d'images de télédétection, dans le but d'obtenir une carte d'occupation des sols la plus fiable possible. En particulier, les travaux ont portés sur la la sélection automatique de données pour la classification supervisée, la fusion automatique d'images issues de classifications supervisées afin de tirer avantage de la complémentarité des données multi-sources et multi-temporelles et la classification automatique basée sur des séries temporelles et spectrales de référence, ce qui permettra la classification de larges zones sans référence spatiale. Les méthodes ont été testées et validées sur un panel de données très variées de : capteurs : optique (Formosat-2, Spot 2/4/5, Landsat 5/7, Worldview-2, Pleiades) et radar (Radarsat,Terrasar-X), résolutions spatiales : de haute à très haute résolution (de 30 mètres à 0. 5 mètre), répétitivités temporelles (jusqu'à 46 images par an) et zones d'étude : agricoles (Toulouse, Marne), montagneuses (Pyrénées), arides (Maroc, Algérie). Deux applications majeures ont été possibles grâce à ces nouveaux outils : l'obtention d'un bilan carbone à partir des rotations culturales obtenues sur plusieurs années et la cartographie de la trame verte (espaces écologiques) dans le but d'étudier l'impact du choix du capteur sur la détection de ces éléments
As acquisition technology progresses, remote sensing data contains an ever increasing amount of information. Future projects in remote sensing like Copernicus will give a high temporal repeatability of acquisitions and will cover large geographical areas. As part of the Copernicus project, Sentinel-2 combines a large swath, frequent revisit (5 days), and systematic acquisition of all land surfaces at high-spatial resolution and with a large number of spectral bands. The context of my research activities has involved the automation and improvement of classification processes for land use and land cover mapping in application with new satellite characteristics. This research has been focused on four main axes: selection of the input data for the classification processes, improvement of classification systems with introduction of ancillary data, fusion of multi-sensors, multi-temporal and multi-spectral classification image results and classification without ground truth data. These new methodologies have been validated on a wide range of images available: various sensors (optical: Landsat 5/7, Worldview-2, Formosat-2, Spot 2/4/5, Pleiades; and radar: Radarsat, Terrasar-X), various spatial resolutions (30 meters to 0. 5 meters), various time repeatability (up to 46 images per year) and various geographical areas (agricultural area in Toulouse, France, Pyrenean mountains and arid areas in Morocco and Algeria). These methodologies are applicable to a wide range of thematic applications like Land Cover mapping, carbon flux estimation and greenbelt mapping
APA, Harvard, Vancouver, ISO, and other styles
44

Soheily-Khah, Saeid. "Generalized k-means-based clustering for temporal data under time warp." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM064/document.

Full text
Abstract:
L’alignement de multiples séries temporelles est un problème important non résolu dans de nombreuses disciplines scientifiques. Les principaux défis pour l’alignement temporel de multiples séries comprennent la détermination et la modélisation des caractéristiques communes et différentielles de classes de séries. Cette thèse est motivée par des travaux récents portant sur l'extension de la DTW pour l’alignement de séries multiples issues d’applications diverses incluant la reconnaissance vocale, l'analyse de données micro-array, la segmentation ou l’analyse de mouvements humain. Ces travaux fondés sur l’extension de la DTW souffrent cependant de plusieurs limites : 1) Ils se limitent au problème de l'alignement par pair de séries 2) Ils impliquent uniformément les descripteurs des séries 3) Les alignements opérés sont globaux. L'objectif de cette thèse est d'explorer de nouvelles approches d’alignement temporel pour la classification non supervisée de séries. Ce travail comprend d'abord le problème de l'extraction de prototypes, puis de l'alignement de séries multiples multidimensionnelles
Temporal alignment of multiple time series is an important unresolved problem in many scientific disciplines. Major challenges for an accurate temporal alignment include determining and modeling the common and differential characteristics of classes of time series. This thesis is motivated by recent works in extending Dynamic time warping for aligning multiple time series from several applications including speech recognition, curve matching, micro-array data analysis, temporal segmentation or human motion. However these DTW-based works suffer of several limitations: 1) They address the problem of aligning two time series regardless of the remaining time series, 2) They involve uniformly the features of the multiple time series, 3) The time series are aligned globally by including the whole observations. The aim of this thesis is to explore a generalized dynamic time warping for time series clustering. This work includes first the problem of prototype extraction, then the alignment of multiple and multidimensional time series
APA, Harvard, Vancouver, ISO, and other styles
45

Wagner, Nicolas. "Détection des modifications de l’organisation circadienne des activités des animaux en relation avec des états pré-pathologiques, un stress, ou un événement de reproduction." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC032.

Full text
Abstract:
L'élevage de précision consiste à enregistrer des paramètres sur les animaux ou leur environnement grâce à divers capteurs. Dans cette thèse, il s'agit de suivre le comportement de vaches laitières via un système de localisation en temps réel. Les données sont collectées en une suite de valeurs à intervalle régulier, c'est ce que l'on appelle une série temporelle. Les problèmes liés à l'utilisation de capteurs sont le grand nombre de données engendré et la qualité de ces données. Le Machine Learning (ML) permet d'atténuer ce problème. Le but de cette thèse est de détecter les comportements anormaux de vaches. L'hypothèse de travail, étayée par la littérature en biologie, est que le rythme circadien d'activité d'une vache change si celle-ci passe d'un état normal à un état de maladie, stress ou encore un stade physiologique spécifique (œstrus, mise-bas) et ce, de manière très précoce. La détection d'une anomalie de comportement permettrait de prendre des décisions plus rapidement en élevage. Pour cela, il existe des outils de classification de séries temporelles ou Time Series Classification (TSC) en anglais. Le problème avec les données de comportement est que le schéma comportemental dit normal de la vache varie selon les vaches, les jours, la ferme, la saison, etc. Trouver un schéma normal commun à toutes les vaches est donc impossible. Or, la plupart des outils de TSC se basent sur l'apprentissage d'un modèle global pour définir si un comportement donné est proche de ce modèle ou non. Cette thèse s'articule autour de deux grandes contributions. La première consiste à l'élaboration d'une nouvelle méthode de TSC : FBAT. Elle se base sur les transformées de Fourier pour identifier un pattern d'activité sur 24 h et le comparer à celui d'une autre période de 24 h consécutive, afin de palier le problème de l'absence de schéma commun d'une vache normale. La deuxième contribution consiste à utiliser les étiquettes floues. En effet, autour des jours considérés comme anormaux, il est possible de définir une zone incertaine où la vache serait dans un état intermédiaire. Nous montrons que la logique floue permet d'améliorer les résultats quand les étiquettes sont incertaines et nous introduisons une variante floue de FBAT : F-FBAT
Precision livestock farming consists of recording parameters on the animals or their environment using various sensors. In this thesis, the aim is to monitor the behaviour of dairy cows via a real-time localisation system. The data are collected in a sequence of values at regular intervals, a so-called time series. The problems associated with the use of sensors are the large amount of data generated and the quality of this data. The Machine Learning (ML) helps to alleviate this problem. The aim of this thesis is to detect abnormal cow behaviour. The working hypothesis, supported by the biological literature, is that the circadian rhythm of a cow's activity changes if it goes from a normal state to a state of disease, stress or a specific physiological stage (oestrus, farrowing) at a very early stage. The detection of a behavioural anomaly would allow decisions to be taken more quickly in breeding. To do this, there are Time Series Classification (TSC) tools. The problem with behavioural data is that the so-called normal behavioural pattern of the cow varies from cow to cow, day to day, farm to farm, season to season, and so on. Finding a common normal pattern to all cows is therefore impossible. However, most TSC tools rely on learning a global model to define whether a given behaviour is close to this model or not. This thesis is structured around two major contributions. The first one is the development of a new TSC method: FBAT. It is based on Fourier transforms to identify a pattern of activity over 24 hours and compare it to another consecutive 24-hour period, in order to overcome the problem of the lack of a common pattern in a normal cow. The second contribution is the use of fuzzy labels. Indeed, around the days considered abnormal, it is possible to define an uncertain area where the cow would be in an intermediate state. We show that fuzzy logic improves results when labels are uncertain and we introduce a fuzzy variant of FBAT: F-FBAT
APA, Harvard, Vancouver, ISO, and other styles
46

Hedhli, Ihsen. "Modèles de classification hiérarchiques d'images satellitaires multi-résolutions, multi-temporelles et multi-capteurs. Application aux désastres naturels." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4006/document.

Full text
Abstract:
Les moyens mis en œuvre pour surveiller la surface de la Terre, notamment les zones urbaines, en cas de catastrophes naturelles telles que les inondations ou les tremblements de terre, et pour évaluer l’impact de ces événements, jouent un rôle primordial du point de vue sociétal, économique et humain. Dans ce cadre, des méthodes de classification précises et efficaces sont des outils particulièrement importants pour aider à l’évaluation rapide et fiable des changements au sol et des dommages provoqués. Étant données l’énorme quantité et la variété des données Haute Résolution (HR) disponibles grâce aux missions satellitaires de dernière génération et de différents types, telles que Pléiades, COSMO-SkyMed ou RadarSat-2 la principale difficulté est de trouver un classifieur qui puisse prendre en compte des données multi-bande, multi-résolution, multi-date et éventuellement multi-capteur tout en gardant un temps de calcul acceptable. Les approches de classification multi-date/multi-capteur et multi-résolution sont fondées sur une modélisation statistique explicite. En fait, le modèle développé consiste en un classifieur bayésien supervisé qui combine un modèle statistique conditionnel par classe intégrant des informations pixel par pixel à la même résolution et un champ de Markov hiérarchique fusionnant l’information spatio-temporelle et multi-résolution, en se basant sur le critère des Modes Marginales a Posteriori (MPM en anglais), qui vise à affecter à chaque pixel l’étiquette optimale en maximisant récursivement la probabilité marginale a posteriori, étant donné l’ensemble des observations multi-temporelles ou multi-capteur
The capabilities to monitor the Earth's surface, notably in urban and built-up areas, for example in the framework of the protection from environmental disasters such as floods or earthquakes, play important roles in multiple social, economic, and human viewpoints. In this framework, accurate and time-efficient classification methods are important tools required to support the rapid and reliable assessment of ground changes and damages induced by a disaster, in particular when an extensive area has been affected. Given the substantial amount and variety of data available currently from last generation very-high resolution (VHR) satellite missions such as Pléiades, COSMO-SkyMed, or RadarSat-2, the main methodological difficulty is to develop classifiers that are powerful and flexible enough to utilize the benefits of multiband, multiresolution, multi-date, and possibly multi-sensor input imagery. With the proposed approaches, multi-date/multi-sensor and multi-resolution fusion are based on explicit statistical modeling. The method combines a joint statistical model of multi-sensor and multi-temporal images through hierarchical Markov random field (MRF) modeling, leading to statistical supervised classification approaches. We have developed novel hierarchical Markov random field models, based on the marginal posterior modes (MPM) criterion, that support information extraction from multi-temporal and/or multi-sensor information and allow the joint supervised classification of multiple images taken over the same area at different times, from different sensors, and/or at different spatial resolutions. The developed methods have been experimentally validated with complex optical multispectral (Pléiades), X-band SAR (COSMO-Skymed), and C-band SAR (RadarSat-2) imagery taken from the Haiti site
APA, Harvard, Vancouver, ISO, and other styles
47

Olteanu, Madalina. "Modèles à changements de régime : applications aux données financières." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2006. http://tel.archives-ouvertes.fr/tel-00133132.

Full text
Abstract:
Cette thèse s'organise autour du but suivant : comment trouver un bon modèle pour les séries temporelles qui subissent des changements de comportement? L'application qui a motivé cette question est la caractérisation des crises financières à l'aide d'un indice des chocs de marché inspiré de la géophysique et de modèles hybrides à changements de régime intégrant des perceptrons multi-couches. Les résultats obtenus sur les données fournissent une séparation intéressante entre deux états relatifsà deux comportements différents du marché, mais des questions sur la sélection de modèles et le choix du nombre de régimes se posent alors naturellement.
On propose d'étudier ces questions à travers deux approches. Dans la première, il s'agit de montrer la consistance faible d'un estimateur de maximum de vraisemblance pénalisée sous des conditions de stationnarité et dépendance faible. Les hypothèses introduites sur l'entropie à crochets de la classe des fonctions scores généralisés sont ensuite vérifiées dans un cadre linéaire et gaussien. La deuxième approche, plutôt empirique, est issue des méthodes de classification non-supervisée et combine les cartes de Kohonen avec une classification hiérarchique pour laquelle une nouvelle dispersion basée sur la somme des carrés résiduelle est introduite.
APA, Harvard, Vancouver, ISO, and other styles
48

Manabe, Victor Danilo 1986. "Metodologia para mapeamento da expansão de cana-de-açúcar no Estado de Mato Grosso por meio de séries temporais de NDVI/MODIS." [s.n.], 2014. http://repositorio.unicamp.br/jspui/handle/REPOSIP/257105.

Full text
Abstract:
Orientador: Jansle Vieira Rocha
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Agrícola
Made available in DSpace on 2018-08-25T12:57:44Z (GMT). No. of bitstreams: 1 Manabe_VictorDanilo_M.pdf: 5304321 bytes, checksum: 80a3f7d1cb298d39ab607a7a6015ab38 (MD5) Previous issue date: 2014
Resumo: O aumento na produção da cana-de-açúcar vem gerando grande discussão sobre a sustentabilidade da produção e a sua influência direta na mudança de uso da terra, principalmente em áreas de pastagem e cultura anual. O estudo da dinâmica da cana-de-açúcar tem influência direta em questões como a composição da produção agrícola, nos impactos sobre a biodiversidade, no desenvolvimento social e humano e na definição de políticas públicas. Índice de vegetação, através de séries temporais de imagens, tem sido utilizado para mapeamento de uso da terra de grandes áreas (estados, países ou regiões), através de produtos do sensor MODerate resolution Imaging Spectroradiometer (MODIS). Este trabalho avaliou o desempenho de diferentes técnicas de filtragem em séries temporais e também realizou detecção automatizada de áreas de cana-de-açúcar e principais usos da terra para os anos de 2005, 2008 e 2012, e consequente mudança de uso da terra, utilizando séries temporais NDVI/MODIS, no estado de Mato Grosso. Foi utilizado o NDVI dos produtos MOD13Q1 e MYD13Q1 do sensor MODIS para identificação das áreas de diferentes usos da terra. Primeiramente foram avaliados os filtros Savitz-Golay , HANTS e Flat Bottom de maneira individual e também com a combinação Flat Bottom + HANTS e Flat Bottom + Savitz-Golay, nas séries de dados somente referentes ao NDVI MODIS/Terra e em conjunto com NDVI MODIS/Aqua. Tendo o resultado, que a utilização MODIS/Terra e MODIS/Aqua trouxe melhora significativa no resultado da classificação, quando utilizado em conjunto a algum filtro de série temporal, sendo o Savitzky-Golay, o que apresentou melhor resultado na diferenciação dos alvos. Na identificação e mapeamento automatizado, de áreas de cana-de-açúcar e outros principais usos da terra para a região (cultura anual, pastagem, cerrado e mata), para os anos de 2005, 2008 e 2012, os valores de acertos para cana-de-açúcar foram de 83%, 82% e 85% nos anos 2005, 2008 e 2012, respectivamente, e o acerto total foram de 89%, 88% e 89%, também para os anos 2005, 2008 e 2012. Ao cruzar os mapeamentos, foi possível realizar a análise da mudança de uso da terra para cana-de-açúcar. A certeza na mudança de uso da terra, quando implementa em áreas anteriormente destinadas a agricultura anual foi de 80% e 82%, na comparação de 2005 para 2008 e 2008 para 2012, respectivamente. No uso anterior de pastagem e cerrado este valor apresentou valores de 69% e 30%, respectivamente, na mudança de 2005 para 2008, e 66% e 34%, respectivamente, na mudança de 2008 para 2012. O resultado na analise de mudança de usa da terra teve a predominância de áreas de pastagem como principal uso anterior a cana-de-açúcar, seguida pela agricultura e o cerrado como responsável pelo restante do uso anterior da terra. Assim, o método para identificação da mudança de uso da terra apresentou um erro a ser considero, porém a tendência de ocorrência se apresenta de maneira consistente
Abstract: The production increase of sugarcane has generated discussion about the sustainability of production and its direct impact on the land use change, especially in pasture and annual crops areas. The study of the dynamics of sugarcane has a direct impact on issues such as the composition of agricultural production, the impacts on biodiversity, social and human development and the definition of public policies. Vegetation index through time series images have been used to map land use of large areas (states, countries or regions) using sensor Moderate Resolution Imaging Spectroradiometer (MODIS). This study evaluated the performance of different time series smoothing techniques and also held automated detection of sugarcane areas and main land uses for the years 2005, 2008 and 2012, and the consequent land use change, using NDVI/MODIS time series in Mato Grosso state. It was used NDVI product of MOD13Q1 and MYD13Q1 to identify areas of different land uses. At first, Savitz-Golay, Hants and Flat Bottom individually and also the combination Flat Bottom + Hants and Flat Bottom + Savitz-Golay, it was applied on NDVI time series data only related to MODIS/Terra and in conjunction with MODIS/Aqua. The result was that the use MODIS/Terra and MODIS/Aqua brought significant improvement in the overall classification, when used in conjunction with any time series smoothing, and the Savitzky-Golay showed better results in the differentiation of targets. The mapping areas of sugarcane and other major land uses (annual crops, grassland, savanna and forest), for the years 2005, 2008 and 2012, the number of right answers for sugarcane were 83 %, 82 % and 85 % in the years 2005, 2008 and 2012, respectively, and total accuracy were 89 %, 88 % and 89 %, also for the years 2005, 2008 and 2012. When crossing the maps, it was possible to perform the analysis of the land use change to cane sugar. The certainty of change in land use, when deploy in areas previously designed to annual agriculture was 80 % and 82 % in 2005 compared to 2008 and 2008 compared to 2012 respectively. The past use of grassland and savannah, this value, showed values of 69 % and 30 %, respectively, in the change from 2005 to 2008, and 66 % and 34 %, respectively, in the change from 2008 to 2012. The result of the study of land use changing had the predominance of grazing areas as the former principal use sugarcane, followed by agriculture and savanna as responsible for the remainder of the previous land use. Thus, the method to identifying the change of land use has an error to consider, but the trend appears to occur consistently
Mestrado
Planejamento e Desenvolvimento Rural Sustentável
Mestre em Engenharia Agrícola
APA, Harvard, Vancouver, ISO, and other styles
49

Mure, Simon. "Classification non supervisée de données spatio-temporelles multidimensionnelles : Applications à l’imagerie." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI130/document.

Full text
Abstract:
Avec l'augmentation considérable d'acquisitions de données temporelles dans les dernières décennies comme les systèmes GPS, les séquences vidéo ou les suivis médicaux de pathologies ; le besoin en algorithmes de traitement et d'analyse efficaces d'acquisition longitudinales n'a fait qu'augmenter. Dans cette thèse, nous proposons une extension du formalisme mean-shift, classiquement utilisé en traitement d'images, pour le groupement de séries temporelles multidimensionnelles. Nous proposons aussi un algorithme de groupement hiérarchique des séries temporelles basé sur la mesure de dynamic time warping afin de prendre en compte les déphasages temporels. Ces choix ont été motivés par la nécessité d'analyser des images acquises en imagerie par résonance magnétique sur des patients atteints de sclérose en plaques. Cette maladie est encore très méconnue tant dans sa genèse que sur les causes des handicaps qu'elle peut induire. De plus aucun traitement efficace n'est connu à l'heure actuelle. Le besoin de valider des hypothèses sur les lésions de sclérose en plaque nous a conduit à proposer des méthodes de groupement de séries temporelles ne nécessitant pas d'a priori sur le résultat final, méthodes encore peu développées en traitement d'images
Due to the dramatic increase of longitudinal acquisitions in the past decades such as video sequences, global positioning system (GPS) tracking or medical follow-up, many applications for time-series data mining have been developed. Thus, unsupervised time-series data mining has become highly relevant with the aim to automatically detect and identify similar temporal patterns between time-series. In this work, we propose a new spatio-temporal filtering scheme based on the mean-shift procedure, a state of the art approach in the field of image processing, which clusters multivariate spatio-temporal data. We also propose a hierarchical time-series clustering algorithm based on the dynamic time warping measure that identifies similar but asynchronous temporal patterns. Our choices have been motivated by the need to analyse magnetic resonance images acquired on people affected by multiple sclerosis. The genetics and environmental factors triggering and governing the disease evolution, as well as the occurrence and evolution of individual lesions, are still mostly unknown and under intense investigation. Therefore, there is a strong need to develop new methods allowing automatic extraction and quantification of lesion characteristics. This has motivated our work on time-series clustering methods, which are not widely used in image processing yet and allow to process image sequences without prior knowledge on the final results
APA, Harvard, Vancouver, ISO, and other styles
50

Al, Saleh Mohammed. "SPADAR : Situation-aware and proactive analytics for dynamic adaptation in real time." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG060.

Full text
Abstract:
Bien que le niveau de rayonnement soit une préoccupation sérieuse qui nécessite une surveillance continue, de nombreux systèmes existants sont conçus pour effectuer cette tâche. Radiation Early Warning System (REWS) est l'un de ces systèmes qui surveille le niveau de rayonnement gamma dans l'air. Un tel système nécessite une intervention manuelle élevée, dépend totalement de l'analyse d'experts et présente des lacunes qui peuvent parfois être risquées. Dans cette thèse, l'approche RIMI (Refining Incoming Monitored Incidents) sera introduite, qui vise à améliorer ce système pour gagner en autonome tout en laissant la décision finale aux experts. Une nouvelle méthode est présentée qui aidera à changer ce système pour devenir plus intelligent tout en apprenant des incidents passés de chaque système spécifique
Although radiation level is a serious concern that requires continuous monitoring, many existing systems are designed to perform this task. Radiation Early Warning System (REWS) is one of these systems which monitors the gamma radiation level in the air. Such a system requires high manual intervention, depends totally on experts' analysis, and has some shortcomings that can be risky sometimes. In this thesis, the RIMI (Refining Incoming Monitored Incidents) approach will be introduced, which aims to improve this system while becoming more autonomous while keeping the final decision to the experts. A new method is presented which will help in changing this system to become more intelligent while learning from past incidents of each specific system
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography