To see the other types of publications on this topic, follow the link: Anomalies temporelles.

Dissertations / Theses on the topic 'Anomalies temporelles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 17 dissertations / theses for your research on the topic 'Anomalies temporelles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ravilly, Morgane. "Etude de l'anomalie magnétique axiale le long de la ride médio-atlantique : implications sur les processus de l'accrétion et les variations temporelles du champ géomagnétique." Brest, 1999. http://www.theses.fr/1999BRES2042.

Full text
Abstract:
Les anomalies magnetiques oceaniques sont generalement utilisees a des fins de datation, on s'interesse ici aux informations qu'elles renferment sur la source aimantee au travers d'une etude des variations d'amplitude et de forme de l'anomalie magnetique axiale le long de la ride medio-atlantique entre 20 et 45\n. Alliee aux donnees acquises lors des plongees submersible (donnees magnetiques de fond et echantillonnage regulier du plancher oceanique de 0 a 1. 5 m. A. ) realisees sur le segment tammar (21\30'n), cette etude nous permet de rattacher les proprietes de la structure aimantee aux processus de l'accretion, tant a l'echelle des points chauds qu'a celle plus locale de la segmentation, et aux fluctuations de l'intensite du champ geomagnetique. De fortes amplitudes de l'anomalie magnetique axiale et des anomalies magnetiques satellitaires positives sont associees aux domaines oceaniques situes a proximite des points chauds, suggerant que le signal magnetique permet d'apprehender la dynamique sublithospherique. Les segments elementaires d'accretion presentent une signature magnetique systematique avec des amplitudes plus fortes en extremites interpretees comme refletant la presence de basaltes differenciees ou celle de peridotites serpentinisees. Dans le contexte des centres de segment, l'anomalie magnetique axiale presente des micro-anomalies qui peuvent etre vues comme resultant des variations temporelles de l'intensite du champ geomagnetique et de l'alternance de periode a dominante soit volcanique soit tectonique. Au centre du segment tammar, les determinations de l'intensite du champ ancien effectuees en appliquant la methode originale de thellier (1959) aux 66 basaltes oceaniques collectes semblent confirmer l'hypothese rattachant les micro-anomalies aux fluctuations de l'intensite du champ geomagnetique et suggerent par ailleurs que le signal paleointensite peut etre utilise pour dater avec finesse le plancher oceanique.
APA, Harvard, Vancouver, ISO, and other styles
2

Wilmet, Audrey. "Détection d'anomalies dans les flots de liens : combiner les caractéristiques structurelles et temporelles." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS402.

Full text
Abstract:
Un flot de liens est un ensemble de liens {(t,u,v)} dans lequel un triplet (t,u,v) modélise l'interaction entre deux entités u et v à l'instant t. Dans de nombreuses situations, les données résultent de la mesure des interactions entre plusieurs millions d'entités au cours du temps et peuvent ainsi être étudiées grâce au formalisme des flots de liens. C'est le cas des appels téléphoniques, des échanges d'e-mails, des transferts d'argent, des contacts entre individus, du trafic IP, des achats en ligne, et bien d'autres encore. L'objectif de cette thèse est la détection d'ensembles de liens anormaux dans un flot de liens. Dans une première partie, nous concevons une méthode qui construit différents contextes, un contexte étant un ensemble de caractéristiques décrivant les circonstances d'une anomalie. Ces contextes nous permettent de trouver des comportements inattendus pertinents, selon plusieurs dimensions et perspectives. Dans une seconde partie, nous concevons une méthode permettant de détecter des anomalies dans des distributions hétérogènes dont le comportement est constant au cours du temps, en comparant une séquence de distributions hétérogènes similaires. Nous appliquons nos outils méthodologiques à des interactions temporelles provenant de retweets sur Twitter et de trafic IP du groupe MAWI
A link stream is a set of links {(t, u, v)} in which a triplet (t, u, v) models the interaction between two entities u and v at time t. In many situations, data result from the measurement of interactions between several million of entities over time and can thus be studied through the link stream's formalism. This is the case, for instance, of phone calls, email exchanges, money transfers, contacts between individuals, IP traffic, online shopping, and many more. The goal of this thesis is the detection of sets of abnormal links in a link stream. In a first part, we design a method that constructs different contexts, a context being a set of characteristics describing the circumstances of an anomaly. These contexts allow us to find unexpected behaviors that are relevant, according to several dimensions and perspectives. In a second part, we design a method to detect anomalies in heterogeneous distributions whose behavior is constant over time, by comparing a sequence of similar heterogeneous distributions. We apply our methodological tools to temporal interactions coming from retweets of Twitter and IP traffic of MAWI group
APA, Harvard, Vancouver, ISO, and other styles
3

Benkabou, Seif-Eddine. "Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1046/document.

Full text
Abstract:
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse
Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
APA, Harvard, Vancouver, ISO, and other styles
4

Binder, Benjamin. "Definitions and Detection Procedures of Timing Anomalies for the Formal Verification of Predictability in Real-Time Systems." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG086.

Full text
Abstract:
Les systèmes temps-réel sont souvent validés par des analyses temporelles, qui sont mises en péril par des anomalies temporelles (AT). Une AT contre-intuitive a lieu quand une accélération locale conduit à un ralentissement global, et une AT d'amplification, quand un ralentissement local entraîne un ralentissement encore plus grand.Alors que les AT contre-intuitives menacent le bien-fondé ou la flexibilité des analyses, il n'existe pas d'outils pour les détecter de manière systématique. Nous proposons une structure formelle unifiée pour évaluer les définitions des AT, concluant au manque d'une définition pratique, principalement dû à l'absence de relations entre les effets temporels locaux et globaux. Nous y répondons par la causalité, que nous utilisons pour revoir la formalisation de ces AT. Nous proposons aussi une instance des notions spécialisée pour les pipelines out-of-order. Nous évaluons notre procédure de détection subséquente sur des exemples illustratifs et bancs de tests, montrant qu'elle permet de capturer précisément les AT.La complexité des systèmes exige que leurs analyses gèrent l'important espace d'états résultant. Une solution est de réaliser des analyses compositionnelles, précisément menacées par les AT d'amplification. Nous faisons progresser leur étude en montrant comment une abstraction spécialisée peut être adaptée pour un processeur industriel, en modélisant les caractéristiques temporelles clés avec des réductions appropriées. Nous illustrons aussi à partir de cette classe d'AT comment des stratégies de vérification peuvent être utilisées en vue de l'obtention de motifs d'AT
The timing behavior of real-time systems is often validated through timing analyses, which are yet jeopardized by execution phenomena called timing anomalies (TAs). A counter-intuitive TA manifests when a local speedup eventually leads to a global slowdown, and an amplification TA, when a local slowdown leads to an even larger global slowdown.While counter-intuitive TAs threaten the soundness/scalability of timing analyses, tools to systematically detect them do not exist. We set up a unified formal framework for systematically assessing the definitions of TAs, concluding the lack of a practical definition, mainly due to the absence of relations between local and global timing effects. We address these relations through the causality, which we further use to revise the formalization of these TAs. We also propose a specialized instance of the notions for out-of-order pipelines. We evaluate our subsequent detection procedure on illustrative examples and standard benchmarks, showing that it allows accurately capturing TAs.The complexity of the systems demands that their timing analyses be able to cope with the large resulting state space. A solution is to perform compositional analyses, specifically threatened by amplification TAs. We advance their study by showing how a specialized abstraction can be adapted for an industrial processor, by modeling the timing-relevant features of such a hardware with appropriate reductions. We also illustrate from this class of TAs how verification strategies can be used towards the obtainment of TA patterns
APA, Harvard, Vancouver, ISO, and other styles
5

Boniol, Paul. "Detection of anomalies and identification of their precursors in large data series collections." Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5206.

Full text
Abstract:
Les larges collections de séries temporelles deviennent une réalité dans un grand nombre de domaines scientifiques et sociaux, comme la finance, les sciences de l’environnement, l’astrophysique, les neurosciences, l’ingénierie ou les métiers du numérique. Il y a donc un intérêt et un besoin de plus en plus importants de développer des techniques efficaces pour analyser et traiter ce type de données. De manière informelle, une série temporelle est une séquence ordonnée de points ou de valeurs. Une fois les séries collectées et disponibles, les utilisateurs ont souvent besoin de les étudier pour en extraire de la valeur et de la connaissance. Ces analyses peuvent être simples, comme sélectionner des fenêtres temporelles, mais aussi complexes, comme rechercher des similarités entre des séries ou détecter des anomalies, souvent synonymes d’évolutions soudaines et inhabituelles possiblement non souhaitées, voire de dysfonctionnements du système étudié. Ce dernier type d’analyse représente un enjeu crucial pour des applications dans un large éventail de domaines partageant tous le même objectif : détecter les anomalies le plus rapidement possible pour éviter la survenue de tout événement critique, comme par exemple de prévenir les dégradations et donc d’allonger la durée de vie des systèmes. Par conséquent, dans ce travail de thèse, nous traitons les trois objectifs suivants : (i) l’exploration non-supervisée de séries temporelles pour la détection rétrospective d’anomalies à partir d’une collection de séries temporelles. (ii) la détection non-supervisée d’anomalies en temps réel dans les séries temporelles. (iii) l’explication de la classification d’anomalies connues dans les séries temporelles, afin d’identifier de possibles précurseurs. Dans ce manuscrit, nous introduisons d’abord le contexte industriel qui a motivé la thèse, des définitions fondamentales, une taxonomie des séries temporelles et un état de l’art des méthodes de détection d’anomalies. Nous présentons ensuite nos contributions scientifiques en suivant les trois axes mentionnés précédemment. Ainsi, nous décrivons premièrement deux solutions originales, NormA (basée sur une méthode de clustering de sous-séquences de la série temporelle à analyser) et Series2Graph (qui s’appuie sur une transformation de la séries temporelle en un réseau orienté), pour la tâche de détection non supervisée de sous-séquences anormales dans les séries temporelles statiques (i.e., n’évoluant pas dans le temps). Nous présentons dans un deuxième temps la méthode SAND (inspiré du fonctionnement de NormA) développée pour répondre à la tâche de détection non-supervisée de sous-séquences anormales dans les séries temporelles évoluant de manière continue dans le temps. Dans une troisième phase, nous abordons le problème lié à l’identification supervisée des précurseurs. Nous subdivisons cette tâche en deux problèmes génériques : la classification supervisée de séries temporelles d’une part, l’explication des résultats de cette classification par l’identification de sous-séquences discriminantes d’autre part. Enfin, nous illustrons l’applicabilité et l’intérêt de nos développements au travers d’une application portant sur l’identification de précurseurs de vibrations indésirables survenant sur des pompes d’alimentation en eau dans les centrales nucléaires françaises d’EDF
Extensive collections of data series are becoming a reality in a large number of scientific and social domains. There is, therefore, a growing interest and need to elaborate efficient techniques to analyze and process these data, such as in finance, environmental sciences, astrophysics, neurosciences, engineering. Informally, a data series is an ordered sequence of points or values. Once these series are collected and available, users often need to query them. These queries can be simple, such as the selection of time interval, but also complex, such as the similarities search or the detection of anomalies, often synonymous with malfunctioning of the system under study, or sudden and unusual evolution likely undesired. This last type of analysis represents a crucial problem for applications in a wide range of domains, all sharing the same objective: to detect anomalies as soon as possible to avoid critical events. Therefore, in this thesis, we address the following three objectives: (i) retrospective unsupervised subsequence anomaly detection in data series. (ii) unsupervised detection of anomalies in data streams. (iii) classification explanation of known anomalies in data series in order to identify possible precursors. This manuscript first presents the industrial context that motivated this thesis, fundamental definitions, a taxonomy of data series, and state-of-the-art anomaly detection methods. We then present our contributions along the three axes mentioned above. First, we describe two original solutions, NormA (that aims to build a weighted set of subsequences that represent the different behaviors of the data series) and Series2Graph (that transform the data series in a directed graph), for the task of unsupervised detection of anomalous subsequences in static data series. Secondly, we present the SAND (inspired from NormA) method for unsupervised detection of anomalous subsequences in data streams. Thirdly, we address the problem of the supervised identification of precursors. We subdivide this task into two generic problems: the supervised classification of time series and the explanation of this classification’s results by identifying discriminative subsequences. Finally, we illustrate the applicability and interest of our developments through an application concerning the identification of undesirable vibration precursors occurring in water supply pumps in the French nuclear power plants of EDF
APA, Harvard, Vancouver, ISO, and other styles
6

Dentzer, Jacques. "Forçages environnementaux et contrôles structuraux sur le régime thermique actuel du bassin de Paris : enjeux pour la compréhension du potentiel géothermique en Ile-de-France." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066187/document.

Full text
Abstract:
Les acquisitions de mesures de températures et de conductivités thermiques ont enrichi la connaissance du régime thermique du bassin sédimentaire de Paris et ont mis en évidence des hétérogénéités thermiques spatiales ou temporelles. Afin de mieux les comprendre, ces variations doivent être intégrées dans une vision multidisciplinaire confrontant données et modèles. La revue bibliographique sur le sujet a permis d’intégrer les données de natures diverses, de les confronter par SIG et d’investiguer les connaissances. Cette étude a mis en évidence et réinterprété les variations verticales de flux géothermal. Les simulations conduites à partir de scénarios diffusifs paléoclimatiques montrent que le système a gardé en mémoire l’effet des paléoclimats. Par ailleurs, nous identifions pour la première fois une décroissance systématique du flux géothermal au niveau des principales formations aquifères. Des simulations thermo-hydrauliques transitoires des phénomènes paléoclimatiques mettent en évidence le développement de zones froide et chaude suivant les régions d’écoulement. Une explication de l’anomalie de température de plus de 20°C entre les installations géothermiques situées au nord et au sud de Paris au Bathonien est proposée. Les modélisations effectuées montrent clairement la contribution potentielle de zones fracturées, ainsi que celle des failles, à l’hétérogénéité observée dans le champ de température du bassin en permettant des écoulements contraints par le gradient de charge régional et les instabilités densitaires. Ces travaux ont montré le lien entre les formations du bassin qui sont exploitées pour leurs ressources ou utilisées comme milieu de stockage
The acquisition of measurements of temperature and of thermal conductivity has enriched the understanding of the thermal regime of the Paris sedimentary basin and brought to light spatial and temporal thermal heterogeneities. In order to understand them better, these variations need to be integrated into a multidisciplinary vision of the basin by comparing data against models. The bibliographic review made it possible to integrate data of diverse sorts, to compare them using GIS and to investigate the knowledge base. This study has highlighted and reinterpreted the vertical variations of geothermal flux. Simulations carried out based on diffusive palaeoclimatic scenarios show that the system has retained a memory of the effects of palaeoclimates. Furthermore, for the first time, a systematic decline of the geothermal flux has been identified at the level of the main aquifer formations. Transitory thermo-hydraulic simulations of palaeoclimatic phenomena show the development in the sedimentary basin of cold and hot zones according to the areas of flow. An explanation of the temperature anomaly of over 20°C between the geothermal installations located to the north and south of Paris in the Bathonian is put forward. The models produced clearly show the potential contribution of fractured zones, as well as that of the faults, to the heterogeneity observed in the temperature field of the basin by allowing flow constrained by the regional charge gradient and unstable densities. This work has shown the link between the formations in the basin which are exploited for their resources or used as a storage medium
APA, Harvard, Vancouver, ISO, and other styles
7

Dentzer, Jacques. "Forçages environnementaux et contrôles structuraux sur le régime thermique actuel du bassin de Paris : enjeux pour la compréhension du potentiel géothermique en Ile-de-France." Electronic Thesis or Diss., Paris 6, 2016. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2016PA066187.pdf.

Full text
Abstract:
Les acquisitions de mesures de températures et de conductivités thermiques ont enrichi la connaissance du régime thermique du bassin sédimentaire de Paris et ont mis en évidence des hétérogénéités thermiques spatiales ou temporelles. Afin de mieux les comprendre, ces variations doivent être intégrées dans une vision multidisciplinaire confrontant données et modèles. La revue bibliographique sur le sujet a permis d’intégrer les données de natures diverses, de les confronter par SIG et d’investiguer les connaissances. Cette étude a mis en évidence et réinterprété les variations verticales de flux géothermal. Les simulations conduites à partir de scénarios diffusifs paléoclimatiques montrent que le système a gardé en mémoire l’effet des paléoclimats. Par ailleurs, nous identifions pour la première fois une décroissance systématique du flux géothermal au niveau des principales formations aquifères. Des simulations thermo-hydrauliques transitoires des phénomènes paléoclimatiques mettent en évidence le développement de zones froide et chaude suivant les régions d’écoulement. Une explication de l’anomalie de température de plus de 20°C entre les installations géothermiques situées au nord et au sud de Paris au Bathonien est proposée. Les modélisations effectuées montrent clairement la contribution potentielle de zones fracturées, ainsi que celle des failles, à l’hétérogénéité observée dans le champ de température du bassin en permettant des écoulements contraints par le gradient de charge régional et les instabilités densitaires. Ces travaux ont montré le lien entre les formations du bassin qui sont exploitées pour leurs ressources ou utilisées comme milieu de stockage
The acquisition of measurements of temperature and of thermal conductivity has enriched the understanding of the thermal regime of the Paris sedimentary basin and brought to light spatial and temporal thermal heterogeneities. In order to understand them better, these variations need to be integrated into a multidisciplinary vision of the basin by comparing data against models. The bibliographic review made it possible to integrate data of diverse sorts, to compare them using GIS and to investigate the knowledge base. This study has highlighted and reinterpreted the vertical variations of geothermal flux. Simulations carried out based on diffusive palaeoclimatic scenarios show that the system has retained a memory of the effects of palaeoclimates. Furthermore, for the first time, a systematic decline of the geothermal flux has been identified at the level of the main aquifer formations. Transitory thermo-hydraulic simulations of palaeoclimatic phenomena show the development in the sedimentary basin of cold and hot zones according to the areas of flow. An explanation of the temperature anomaly of over 20°C between the geothermal installations located to the north and south of Paris in the Bathonian is put forward. The models produced clearly show the potential contribution of fractured zones, as well as that of the faults, to the heterogeneity observed in the temperature field of the basin by allowing flow constrained by the regional charge gradient and unstable densities. This work has shown the link between the formations in the basin which are exploited for their resources or used as a storage medium
APA, Harvard, Vancouver, ISO, and other styles
8

Hadjem, Medina. "Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB011.

Full text
Abstract:
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs
Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives
APA, Harvard, Vancouver, ISO, and other styles
9

Hadjem, Medina. "Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique." Electronic Thesis or Diss., Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB011.

Full text
Abstract:
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs
Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives
APA, Harvard, Vancouver, ISO, and other styles
10

Guigou, Fabio. "The artificial immune ecosystem : a scalable immune-inspired active classifier, an application to streaming time series analysis for network monitoring." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD007/document.

Full text
Abstract:
Introduits au début des années 1990, les systèmes immunitaires artificiels visent à adapter les propriétés du système immunitaire biologique, telles que sa scalabilité et son adaptivité, à des problèmes informatiques : sécurité, mais également optimisation et classification. Cette thèse explore une nouvelle direction en se concentrant non sur les processus biologiques et les cellules elles-mêmes, mais sur les interactions entre les sous-systèmes. Ces modes d’interaction engendrent les propriétés reconnues du système immunitaire : détection d’anomalies, reconnaissance des pathogènes connus, réaction rapide après une exposition secondaire et tolérance à des organismes symbiotiques étrangers. Un ensemble de systèmes en interaction formant un écosystème, cette nouvelle approche porte le nom d’Écosystème Immunitaire Artificiel. Ce modèle est mis à l’épreuve dans un contexte particulièrement sensible à la scalabilité et à la performance : la supervision de réseaux, qui nécessite l’analyse de séries temporelles en temps réel avec un expert dans la boucle, c’est-à-dire en utilisant un apprentissage actif plutôt que supervisé
Since the early 1990s, immune-inspired algorithms have tried to adapt the properties of the biological immune system to various computer science problems, not only in computer security but also in optimization and classification. This work explores a different direction for artificial immune systems, focussing on the interaction between subsystems rather than the biological processes involved in each one. These patterns of interaction in turn create the properties expected from immune systems, namely their ability to detect anomalies, memorize their signature to react quickly upon secondary exposure, and remain tolerant to symbiotic foreign organisms such as the intestinal fauna. We refer to a set of interacting systems as an ecosystem, thus this new approach has called the Artificial Immune Ecosystem. We demonstrate this model in the context of a real-world problem where scalability and performance are essential: network monitoring. This entails time series analysis in real time with an expert in the loop, i.e. active learning instead of supervised learning
APA, Harvard, Vancouver, ISO, and other styles
11

Ait, Bensaid Samira. "Formal Semantics of Hardware Compilation Framework." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG085.

Full text
Abstract:
Les analyses statiques de pire temps d’exécution sont utilisées pour garantir les délais requis pour les systèmes critiques. Afin d’estimer des bornes précises sur ces temps d’exécution, ces analyses temporelles nécessitent des considérations sur la (micro)- architecture. Habituellement, ces modèles de micro-architecture sont construits à la main à partir des manuels des processeurs. Cependant, les initiatives du matériel libre et les langages de description de matériel de haut niveau (HCLs), permettent de réaborder la problématique de la génération automatique de ces modèles de micro-architecture, et plus spécifiquement des modèles de pipeline. Nous proposons un workflow qui vise à construire automatiquement des modèles de chemin de données de pipeline à partir de conceptions de processeurs décrites dans des langages de contruction de matériel (HCLs). Notre workflow est basé sur la chaine de compilation matériel Chisel/FIRRTL. Nous construisons au niveau de la représentation intermédiaire les modèles de pipeline du chemin de données. Notre travail vise à appliquer ces modèles pour prouver des propriétés liées à la prédictibilité temporelle. Notre méthode repose sur la vérification formelle. Les modèles générés sont ensuite traduits en modèles formels et intégrés dans une procédure existante basée sur la vérification de modèles pour détecter les anomalies de temps. Nous utilisons le langage de modélisation et de vérification TLA+ et expérimentons notre analyse avec plusieurs processeurs RISC-V open-source. Enfin, nous faisons progresser les études en évaluant l’impact de la génération automatique à l’aide d’une série de critères synthétiques
Static worst-case timing analyses are used to ensure the timing deadlines required for safety-critical systems. In order to derive accurate bounds, these timing analyses require precise (micro-)architecture considerations. Usually, such micro-architecture models are constructed by hand from processor manuals.However, with the open-source hardware initiatives and high-level Hardware Description Languages (HCLs), the automatic generation of these micro-architecture models and, more specifically, the pipeline models are promoted. We propose a workflow that aims to automatically construct pipeline datapath models from processor designs described in HCLs. Our workflow is based on the Chisel/FIRRTL Hardware Compiler Framework. We build at the intermediate representation level the datapath pipeline models. Our work intends to prove the timing properties, such as the timing predictability-related properties. We rely on the formal verification as our method. The generated models are then translated into formal models and integrated into an existing model checking-based procedure for detecting timing anomalies. We use TLA+ modeling and verification language and experiment with our analysis with several open-source RISC-V processors. Finally, we advance the studies by evaluating the impact of automatic generation through a series of synthetic benchmarks
APA, Harvard, Vancouver, ISO, and other styles
12

Foulon, Lucas. "Détection d'anomalies dans les flux de données par structure d'indexation et approximation : Application à l'analyse en continu des flux de messages du système d'information de la SNCF." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI082.

Full text
Abstract:
Dans cette thèse, nous proposons des méthodes de calcul approchées d'un score d'anomalie, pouvant être mises en oeuvre sur des flux de données pour détecter des portions anormales. La difficulté du problème est de deux ordres. D'une part, la haute dimensionnalité des objets manipulés pour décrire les séries temporelles extraites d'un flux brut, et d'autre part la nécessité de limiter le coût de détection afin de pouvoir la réaliser en continu au fil du flux. Concernant le premier aspect du problème, notre étude bibliographique a permis de sélectionner un score de détection d'anomalies proposé récemment, le score CFOF, qui est le seul pour lequel il existe des garanties formelles quant à son adéquation pour les données en haute dimensionnalité. Nos contributions ont alors porté sur la proposition de deux méthodes d'approximation du score CFOF pour permettre son usage en continu sur des flux. La première est une approche combinant élagage et approximation lors du parcours des voisinages dans l'espace de description des objets. Notre second apport est une approximation par agrégation de scores obtenus sur des sous-espaces, qui complète la première contribution et se combine avec elle. Nous avons montré sur une collection de jeux de données, utilisés comme cadre d'évaluation de référence dans le domaine, que nos méthodes permettaient des gains importants en temps de calcul, tout en fournissant des approximations qui préservent la qualité des détections. Enfin, nous présentons également l'application de ces approches au sein du système d'information de la SNCF dans lequel de nombreux flux sont collectés en temps réel, transformés et rediffusés. Dans ce contexte, nous avons étendu la supervision de bout-en-bout existante par la mise en oeuvre d'un outil d'aide à la détection d'anomalies sur le flux de messages entrant d'une des principales plateformes de traitement
In this thesis, we propose methods to approximate an anomaly score in order to detect abnormal parts in data streams. Two main problems are considered in this context. Firstly, the handling of the high dimensionality of the objects describing the time series extracted from the raw streams, and secondly, the low computation cost required to perform the analysis on-the-fly. To tackle the curse of dimensionality, we have selected the CFOF anomaly score, that has been proposed recently and proven to be robust to the increase of the dimensionality. Our main contribution is then the proposition of two methods to quickly approximate the CFOF score of new objects in a stream. The first one is based on safe pruning and approximation during the exploration of object neighbourhood. The second one is an approximation obtained by the aggregation of scores computed in several subspaces. Both contributions complete each other and can be combined. We show on a reference benchmark that our proposals result in important reduction of the execution times, while providing approximations that preserve the quality of anomaly detection. Then, we present our application of these approaches within the SNCF information system. In this context, we have extended the existing monitoring modules by a new tool to help to detect abnormal behaviours in the real stream of messages within the SNCF communication system
APA, Harvard, Vancouver, ISO, and other styles
13

Audibert, Julien. "Unsupervised anomaly detection in time-series." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS358.

Full text
Abstract:
La détection d'anomalies dans les séries temporelles multivariées est un enjeu majeur dans de nombreux domaines. La complexité croissante des systèmes et l'explosion de la quantité de données ont rendu son automatisation indispensable. Cette thèse propose une méthode non supervisée de détection d'anomalies dans les séries temporelles multivariées appelée USAD. Cependant, les méthodes de réseaux de neurones profonds souffrent d'une limitation dans leur capacité à extraire des caractéristiques des données puisqu'elles ne s'appuient que sur des informations locales. Afin d'améliorer les performances de ces méthodes, cette thèse présente une stratégie d'ingénierie des caractéristiques qui introduit des informations non-locales. Enfin, cette thèse propose une comparaison de seize méthodes de détection d'anomalies dans les séries temporelles pour comprendre si l'explosion de la complexité des méthodes de réseaux de neurones proposées dans les publications actuelles est réellement nécessaire
Anomaly detection in multivariate time series is a major issue in many fields. The increasing complexity of systems and the explosion of the amount of data have made its automation indispensable. This thesis proposes an unsupervised method for anomaly detection in multivariate time series called USAD. However, deep neural network methods suffer from a limitation in their ability to extract features from the data since they only rely on local information. To improve the performance of these methods, this thesis presents a feature engineering strategy that introduces non-local information. Finally, this thesis proposes a comparison of sixteen time series anomaly detection methods to understand whether the explosion in complexity of neural network methods proposed in the current literature is really necessary
APA, Harvard, Vancouver, ISO, and other styles
14

Daouayry, Nassia. "Détection d’évènements anormaux dans les gros volumes de données d’utilisation issues des hélicoptères." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI084.

Full text
Abstract:
Cette thèse aborde le sujet de la normalité de fonctionnement des systèmes composants l’hélicoptère à travers l’exploitation des données d’utilisation issues du système de surveillances du HUMS (Health and Usage Monitoring System) pour la maintenance. Les hélicoptères sont des systèmes complexes et sont soumis à des exigences réglementaires strictes imposées par les autorités concernées par la sécurité en vol. L’analyse des données de surveillance est par conséquent un moyen privilégié pour améliorer la maintenance des hélicoptères. De plus, les données produites par le système HUMS représentent une ressource indispensable pour se rendre compte de l’état de santé des systèmes après chaque vol. Les données collectées sont nombreuses et la complexité des différents systèmes permettent difficilement des analyses cas par cas. Les travaux de cette thèse abordent principalement les problématiques liées à l’exploitation des séries multivariées pour la visualisation et la mise en place d’outil de détection d’anomalie au sein d’Airbus Helicopters. Nous avons développé différentes approches pour permettre de capter dans les données de vol une forme de normalité, relative à un système donné. Un travail sur la visualisation des séries temporelles a été développé pour identifier, avec un minimum d’apriori, les patterns représentants la normalité de fonctionnement d’un système. En se basant sur cette approche, nous avons développé « un capteur virtuel » permettant d’estimer les valeurs d’un capteur réel à partir d’un ensemble de paramètres de vol afin de détecter des évènements anormaux lorsque les valeurs de ces deux capteurs tendent à diverger
This thesis addresses the topic of the normality of the helicopter component systems functioning through the exploitation of the usage data coming from the HUMS (Health and Usage Monitoring System) for the maintenance. Helicopters are complex systems and are subject to strict regulatory requirements imposed by the authorities in charge of flight safety. The analysis of monitoring data is therefore a preferred means of improving helicopter maintenance. In addition, the data produced by the HUMS system are an indispensable resource for assessing the health of the systems after each flight. The data collected are numerous and the complexity of the different systems makes it difficult to analyze them on a case-by-case basis.The work of this thesis deals mainly with the issues related to the utilization of multivariate series for the visualization and the implementation of anomaly detection tools within Airbus Helicopters.We have developed different approaches to catch in the flight data a relative normality for a given system.A work on the visualization of time series has been developed to identify the patterns representing the normality of a system's operation.Based on this approach, we have developed a "virtual sensor" allowing to estimate the values of a real sensor from a set of flight parameters in order to detect abnormal events when the values of these two sensors tend to diverge
APA, Harvard, Vancouver, ISO, and other styles
15

Gernez, Pierre. "Analyse de la variabilité temporelle des propriétés optiques en mer Ligure depuis un moiullage instrumenté (site Boussole) : fluctuations à haute fréquence, cyclicité diurne, changements saisonniers et variabilité interannuelle." Paris 6, 2009. http://www.theses.fr/2009PA066644.

Full text
Abstract:
Le travail est basé sur l’analyse d’une série temporelle collectée dans le cadre du projet BOUSSOLE, en Méditerranée Nord-occidentale. La variabilité optique a été étudiée à trois échelles de temps. En 1) les fluctuations haute-fréquence d’éclairement ont été caractérisées sur une large gamme de conditions environnementales, fournissant ainsi une image complète du phénomène. En 2) les cycles diurnes du coefficient d’atténuation particulaire ont été analysés pour une variété de conditions trophiques. Un nouveau modèle est proposé pour étudier la production particulaire à l’échelle diurne. En 3) l’examen de la variabilité saisonnière et interannuelle des propriétés optiques a montré que la dispersion naturelle aux relations bio-optiques était ordonnée de façon non-aléatoire en fonction des saisons. En corollaire, il est montré que l’anomalie bio-optique régulièrement observée en Méditerranée n’est pas ponctuelle mais partie intégrante du cycle saisonnier.
APA, Harvard, Vancouver, ISO, and other styles
16

Salaün, Achille. "Prédiction d'alarmes dans les réseaux via la recherche de motifs spatio-temporels et l'apprentissage automatique." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS010.

Full text
Abstract:
Les réseaux de télécommunication prennent aujourd'hui une place prépondérante dans notre monde. Ils permettent en effet de partager des informations en masse et à l’échelle planétaire. Toutefois, il s’agit de systèmes complexes, en taille comme en diversité technologique. Cela rend d’autant plus complexes leur maintenance et leur réparation. Afin de limiter l’influence négative de ces dernières, des outils doivent être développés pour détecter une panne dès qu’elle a lieu, en analyser les causes afin de la résoudre efficacement, voire prédire ladite panne pour prévenir plutôt que guérir. Dans cette thèse, nous nous intéressons principalement à ces deux derniers problèmes. Pour cela, nous disposons de fichiers, appelés logs d’alarmes, recensant l’ensemble des alarmes émises par le système. Cependant, ces fichiers sont généralement verbeux et bruités: l’administrateur à la charge d’un réseau doit disposer d’outils capables d’isoler et manipuler de façon interprétable les liens de causalité au sein d’un log. Dans cette thèse, nous avons suivi deux approches. La première est inspirée des techniques de correspondance de motifs: en s’inspirant de l’algorithme d’Ukkonen, nous construisons en ligne une structure, appelée DIG-DAG, qui stocke toutes les chaînes de causalité possibles entre les événements d’un log. Nous proposons également un système de requête pour exploiter cette structure. Enfin, nous appliquons cette approche dans le cadre de l’analyse de causes racines. La seconde approche est une approche générative pour la prédiction de données. En particulier, nous comparons deux modèles classiques pour cette tâche: les réseaux de neurones récurrents d’une part et les modèles de Markov cachés d’autre part. En effet, dans leurs communautés respectives, ces deux modèles font office d’état de l’art. Ici, nous comparons analytiquement leurs expressivités grâce à un modèle probabiliste, appelé GUM, englobant ces deux modèles
Nowadays, telecommunication networks occupy a central position in our world. Indeed, they allow to share worldwide a huge amount of information. Networks are however complex systems, both in size and technological diversity. Therefore, it makes their management and reparation more difficult. In order to limit the negative impact of such failures, some tools have to be developed to detect a failure whenever it occurs, analyse its root causes to solve it efficiently, or even predict this failure as prevention is better than cure. In this thesis, we mainly focus on these two last problems. To do so, we use files, called alarm logs, storing all the alarms that have been emitted by the system. However, these files are generally noisy and verbose: an operator managing a network needs tools able to extract and handle in an interpretable manner the causal relationships inside a log. In this thesis, we followed two directions. First, we have inspired from pattern matching techniques: similarly to the Ukkonen’s algorithm, we build online a structure, called DIG-DAG, that stores all the potential causal relationships between the events of a log. Moreover, we introduce a query system to exploit our DIG-DAG structure. Finally, we show how our solution can be used for root cause analysis. The second approach is a generative approach for the prediction of time series. In particular, we compare two well-known models for this task: recurrent neural nets on the one hand, hidden Markov models on the other hand. Here, we compare analytically the expressivity of these models by encompassing them into a probabilistic model, called GUM
APA, Harvard, Vancouver, ISO, and other styles
17

Shao, Wenhao. "Enhancing Video Anomaly Detection by Leveraging Advanced Deep Learning Techniques." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS012.

Full text
Abstract:
La sécurité est une préoccupation majeure dans différents domaines, et le déploiement de systèmes de surveillance en temps réel permet de relever ce défi. En utilisant des techniques d'apprentissage profond, il permet de reconnaître efficacement les événements anormaux. Cependant, même avec les avancées actuelles des méthodes de détection des anomalies, distinguer les événements anormaux des événements normaux dans les scénarios du monde réel reste un défi en raison d'événements anormaux rares, visuellement diversifiés et non reconnaissables de façon prévisible. Cela est particulièrement vrai lorsque l'on s'appuie sur des méthodes supervisées, où le manque de données d'anomalies labelisées pose un problème important pour distinguer les vidéos normales des vidéos anormales. Par conséquent, les approches de détection d'anomalies les plus récentes utilisent des ensembles de données existants pour concevoir ou apprendre un modèle qui capture les modèles normaux, ce qui permet ensuite d'identifier les modèles anormaux inconnus. Au cours de la phase de conception du modèle, il est essentiel de labelliser les vidéos avec des attributs tels qu'une apparence anormale, un comportement ou des catégories cibles qui s'écartent de manière significative des données normales, en les marquant comme des anomalies. Outre le manque de données labellisées, trois autres défis principaux ont été identifiés dans la littérature : 1) la représentation insuffisante des caractéristiques temporelles, 2) le manque de précision dans le positionnement des événements anormaux et 3) l'absence d'informations sur le comportement.Nous avons exploré les applications des nouvelles technologies de traitement vidéo, notamment la reconnaissance des actions, la détection des cibles, l'extraction des caractéristiques du flux optique, l'apprentissage de la représentation et l'apprentissage contrastif, afin de les utiliser dans les modèles de détection des anomalies vidéo. Les modèles que nous proposons sont analysés de manière comparative avec les modèles de référence. Cette analyse comparative est réalisée à l'aide de jeux de données publics courants, notamment UCSD(Ped2), Avenue, UCF-Crime et Shanghaitech.La première contribution relève le premier point décrit ci-dessus en introduisant un réseau convolutionnel temporel (TCN) amélioré. Ce nouveau modèle de réseau convolutionnel temporel apprend les caractéristiques dynamiques de la vidéo et les optimise afin d'atténuer les erreurs dues aux poids initiaux appris de manière contrastive. Cette méthode améliore la capacité globale des modèles faiblement supervisés en réduisant la perte causée par les paramètres initiaux dans l'apprentissage contrastif. Néanmoins, l'apprentissage faiblement supervisé ne fait que réduire la dépendance à l'égard des données labellisées, mais ne l'élimine pas complètement. C'est pourquoi nos deux contributions suivantes s'appuient sur l'apprentissage non supervisé pour relever les deux autres défis mentionnés ci-dessus. La deuxième contribution combine le mécanisme d'auto-attention pour donner la priorité aux poids des zones présentant des fluctuations dynamiques évidentes dans les images. Lors des tests, les zones anormales sont localisées en comparant les fonctions de détection et de perte d'objets. La troisième contribution explore l'intégration de modèles de réseaux d'apprentissage collaboratifs, qui assurent la cohérence entre les informations sur le flux optique et les informations sur l'apparence. Cette intégration vise à améliorer les capacités de capture spatio-temporelle des modèles non supervisés. Les performances et les capacités globales du modèle non supervisé sont considérablement améliorées par rapport aux autres modèles de base
Security in public spaces is a primary concern across different domains and the deployment of real-time monitoring systems addresses this challenge. Video surveillance systems employing deep learning techniques allows for the effective recognition of anomaly events. However, even with the current advances in anomaly detection methods, distinguishing abnormal events from normal events in real-world scenarios remains a challenge because they often involve rare, visually diverse, and unrecognizable abnormal events. This is particularly true when relying on supervised methods, where the lack of sufficient labeled anomaly data poses a significant challenge for distinguishing between normal and abnormal videos. As a result, state-of-the-art anomaly detection approaches utilize existing datasets to design or learn a model that captures normal patterns, which is then helpful in identifying unknown abnormal patterns. During the model design stage, it is crucial to label videos with attributes such as abnormal appearance, behavior, or target categories that deviate significantly from normal data, marking them as anomalies. In addition to the lack of labeled data, we identified three challenges from the literature: 1) insufficient representation of temporal feature, 2) lack of precise positioning of abnormal events and 3) lack the consistency research of temporal feature and appearance feature. The objective of my thesis is to propose and investigate advanced video anomaly detection methods by addressing the aforementioned challenges using novel concepts and utilizing weak supervision and unsupervised models rather than relying on supervised models.We actively explored the applications of new video processing technologies, including action recognition, target detection, optical flow feature extraction, representation learning, and contrastive learning in order to utilize them in video anomaly detection models. Our proposed models comparatively analysed with baseline models. This comparative analysis are conducted using prevalent public datasets, including UCSD(Ped2), Avenue, UCF-Crime, and Shanghaitech.The first contribution addresses the first challenge outlined above by introducing an enhanced Temporal Convolutional Network (TCN). This novel TCN model learns dynamic video features and optimizes features to mitigate errors due to contrastive learned initial weights. This method enhances the overall capability of weakly supervised models by reducing the loss caused by initial parameters in contrastive learning. Nevertheless, weakly supervised learning only reduces the reliance on labeled data but does not eliminate the dependence on such data. Hence, our subsequent two contributions rely on unsupervised learning to addressing the other two challenges mentioned above. The second contribution combines the self-attention mechanism to prioritize the weights of areas with obvious dynamic fluctuations in frames. And, during the testing, abnormal areas are located through comparison of object detection and loss functions. The combination of self-attention mechanism and object detection significantly improves the detection accuracy and expands the functionality. The third contribution explores the integration of collaborative teaching network models, which bridges consistency between optical flow information and appearance information. This integration aims to enhance the spatio-temporal capture capabilities of unsupervised models. The overall performance and capabilities of the unsupervised model are significantly enhanced compared to the other baseline models
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography