Dissertations / Theses on the topic 'Rupture detection'

To see the other types of publications on this topic, follow the link: Rupture detection.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Rupture detection.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fu, Jiyuan. "Using Thermographic Image Analysis in Detection of Canine Anterior Cruciate Ligament Rupture Disease." Thesis, Southern Illinois University at Edwardsville, 2015. http://pqdtopen.proquest.com/#viewpdf?dispub=1582920.

Full text
Abstract:

Anterior cruciate ligament (ACL) rupture is a common trauma which frequently happens in overweight dogs. Veterinarians use MRI (Magnetic resonance imaging) as the standard method to diagnose this disease. However MRI is expensive and time-consuming. Therefore, it is necessary to find an alternative diagnostic method. In this research, thermographic images are utilized as a prescreening tools for the detection of ACL rupture disease. Meanwhile, a quantitative comparison is made of new feature vectors based on Gabor filters with different frequencies and orientations.

APA, Harvard, Vancouver, ISO, and other styles
2

Sim, Alisia Mara. "Detection of calcification in atherosclerotic plaques using optical imaging." Thesis, University of Edinburgh, 2018. http://hdl.handle.net/1842/33151.

Full text
Abstract:
PET imaging, using the bone tracer Na18F, allows the non-invasive location of atherosclerotic plaques that are at risk of rupture. However, the spatial resolution of PET is only 4-5 mm, limiting the mechanistic information this technique can provide. In this thesis, the use of fluorescence and Raman imaging to elucidate the mechanism of micro-calcification within atherosclerotic plaques has been investigated. A number of fluorescent probes to detect fluoride and calcium have been synthesised. One of the fluoride probes has been shown to be selective for fluoride however, the concentration of fluoride required to activate the probe is order of magnitudes higher than the amount of Na18F used for PET imaging making it problematic to use for future studies. On the other hand, a calcium probe has been shown to: selectively bind to hydroxyapatite (HAP); permit visualisation and quantification of HAP in both vascular and bone cell models; and effectively stain cultured aortic sections and whole mouse aorta for OPT imaging. Building on these preliminary data, fluorescence imaging and immunohistochemistry (IHC) imaging of both healthy and atherosclerotic tissue that were previously subjected to PET imaging, were successfully carried out showing the ability of the probe to detect HAP in human vascular tissue. IHC staining for Osteoprotegerin (OPG) and Osteopontin (OPN), two bone proteins recently detected in vascular tissue, showed the co-localization of OPG with the probe. Conversely, the OPN was shown to localize in areas surrounding high OPG and probe signal. To determine the exact composition of vascular calcification, Raman spectroscopy was also used. It is believed that the biosynthetic pathway to HAP passes through a series of transitional states; each of these has different structural characteristics which can be studied using Raman spectroscopy. In particular, HAP has a strong characteristic Raman peak at 960 cm-1. An increase in HAP concentration has been detected by Raman in both calcified cell models and aortic sections. When human vascular tissue was analysed, an additional peak at 973 cm-1 was present suggesting the presence of whitlockite (WTK) in this tissue as well as HAP.
APA, Harvard, Vancouver, ISO, and other styles
3

Taillade, Thibault. "A new strategy for change detection in SAR time-series : application to target detection." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST050.

Full text
Abstract:
La détection de cibles telles que des navires ou des véhicules dans les images SAR (Synthetic Aperture radar) est un défi important pour la surveillance et la sécurité. Dans certains environnements tels que les zones urbaines, portuaires ou les forêts observées à basses fréquences radar, la détection de ces objets devient difficile en raison des propriétés de rétrodiffusion élevées de l'environnement. Pour résoudre ce problème, la détection de changement (CD) entre différentes images SAR permet de supprimer l'effet de l'environnement et ainsi une meilleur détection des cibles. Cependant, dans différents environnements à forte fréquentation, un chevauchement temporel des cibles peut se produire et génère une erreur d'interprétation possible car l'issue de la détection de changement repose sur une différence relative entre des objets de tailles ou de propriétés différentes. C'est un problème critique lorsque le but est de visualiser et d'obtenir le nombre d'objets à une acquisition donnée, dans les zones à fortes fréquentations comme les ports ou les zones urbaines. Idéalement, cette détection de changement devrait se réaliser entre une image constituée seulement de l'environnement et une image contenant les cibles d’intérêts. Grâce à l'accessibilité actuelle aux séries temporelles d'images SAR, nous proposons de générer une scène de référence (Frozen Background Image - FBR) qui n'est constituée que de l'environnement temporellement statique. La détection de changement entre une image SAR et cette image FBR vise donc a obtenir une map de détection des cibles éphémères présentes. Cette stratégie a été mise en œuvre pour la détection des navires en milieu portuaire et dans le contexte de véhicules cachés sous couvert forestier
The detection of targets such as ships or vehicles in SAR (Synthetic Aperture Radar) images is an essential challenge for surveillance and security purpose. In some environments such as urban areas, harbor areas or forest observed at low radar frequencies, detecting these objects becomes difficult due to the high backscattering properties of the surrounding background. To overcome this issue, change detection (CD) between SAR images enables to cancel the background and highlight successfully targets present within the scene. However, in several environments, a temporal overlapping of targets may occur and generates possible misinterpretation because the outcome relies on the relative change between objects of different sizes or properties. This is a critical issue when the purpose is to visualize and obtain the number of targets at a specific day in high attendance areas such as harbors or urban environments. Ideally, this change detection should occur between a target-free image and onewith possible objects of interest. With the current accessibility to SAR time-series, we propose to compute a frozen background reference (FBR) image that will consists only in the temporally static background. Performing change detection from this FBR image and any SAR image aim to highlight the presence of ephemeral targets. This strategy has been implemented for ship detection in harbor environment and in the context of vehicles hidden under foliage
APA, Harvard, Vancouver, ISO, and other styles
4

LAGRANGE, DOMINIQUE. "Estimation de la date et de l'amplitude d'une rupture conditionnellement a sa detection par une carte cusum." Paris, Institut national d'agronomie de Paris Grignon, 1997. http://www.theses.fr/1997INAP0045.

Full text
Abstract:
Les cartes de controle sont des outils d'amelioration de la qualite des produits. Lorsque la carte de controle signale que le processus est hors-controle, cela signifie que le processus de production est deregle, cependant elle n'indique ni l'importance du dereglage ni quand il a commence. L'estimation de la date et de l'amplitude de la rupture revet donc un grand interet pratique : elle permet de savoir a partir de quand et de combien la production s'est deterioree et ainsi de prendre des decisions adequates. Le responsable de la qualite peut decider quelle partie de la production est suspecte, c'est a dire quelle partie a ete realisee dans des conditions de processus non standard. Au vu des proprietes d'optimalite asymptotique, nous nous sommes interesses au schema de surveillance de type cusum. Nous nous interessons a l'estimation de la date et de l'amplitude du dereglage sachant la detection d'une rupture par une carte cusum. Nous proposons deux methodes d'estimation de la date et de l'amplitude d'une rupture : la methode induite par la definition de la regle de decision cusum, et celle du maximum de vraisemblance. Nous etudions et comparons, pour ces deux methodes, les estimateurs de la date et de l'amplitude du dereglage apres qu'une carte cusum en ait detecte la presence. En posant l'hypothese de distribution gaussienne, nous comparons, par des simulations les estimateurs obtenus par les deux methodes en etudiant leur biais et leur ecart quadratique moyen. Nous determinons la distribution conditionnelle de l'estimateur cusum de la date du dereglage sachant sa detection par la carte cusum, ainsi que celle de l'estimateur de l'amplitude du dereglage, ainsi que leur marginale. Les densites de probabilite obtenues verifient des relations de recurrence qui se resolvent par des methodes numeriques. En posant l'hypothese de distribution gaussienne, nous obtenons de maniere theorique la distribution conditionnelle de l'estimateur du maximum de vraisemblance de la date du dereglage sachant sa detection par la carte cusum. Cependant, a cause de la complexite du domaine d'integration, nous avons eu recours a trois methodes d'integration numerique : la methode de monte-carlo, une variante de celle-ci, et une methode d'integration directe basee sur un maillage ; nous comparons ces methodes en etudiant leur vitesse de convergence. Compte tenu de la complexite des formules des distributions nous proposons une approche bayesienne empirique pour la construction de region hpd -credible de la date et de l'amplitude du dereglage et nous decrivons le logiciel que nous avons realise qui permet a un utilisateur de construire la region de confiance. Nous nous interessons ensuite au cas ou on dispose de plusieurs mesures simultanees sur le processus, il est interessant de tenir compte conjointement de toutes les informations. Nous proposons plusieurs strategies pour le faire et nous comparons leurs efficacites. Dans un dernier temps nous adaptons les resultats des distributions conditionnelles des estimateurs de la date et de l'amplitude d'une rupture dans le cas ou la carte de controle utilisee est une carte de type ewma ou ewma tronquee.
APA, Harvard, Vancouver, ISO, and other styles
5

Dahal, Rohini. "Bilateral Thermographic Image Comparison Software Tool for Pathology Detection in Canines with Application to Anterior Cruciate Ligament (ACL) Rupture." Thesis, Southern Illinois University at Edwardsville, 2017. http://pqdtopen.proquest.com/#viewpdf?dispub=10276314.

Full text
Abstract:

Introduction: The bilaterally symmetry property in animals can be used to detect pathologies where body parts on both sides can be compared. For any pathological disorder, thermal patterns differ compared to the normal body parts. A software application for veterinary clinics is under development to input two thermograms of body parts on both sides, one normal and the other unknown, and the application compares them on the basis of extracted features and appropriate similarity and difference measures and outputs the likelihood of pathology. Previous research has been used to determine the appropriate image processing, feature extraction and comparison metrics to be used. The comparison metrics used are the vector inner product, Tanimoto, Euclidean, city block, Minkowski and maximum value metric. Also, results from experiments with comparison tests are used to derive a potential threshold values which will separate normal from abnormal images for a specific pathology.

Objectives: The main objective of this research is to build a comparison software tool application by combining the concepts of bilateral symmetrical property in animals and IR thermography that can be for prescreening in veterinary clinics.

Comparison Software Tool Development: The comparison software tool was developed for veterinary clinics as a prescreening tool for pathology detection using the concepts of thermography and bilateral symmetry property in animals. The software tool has a graphical user interface (GUI) that allows ease of use for the clinical technician. The technician inputs images or raw temperature data csv files and compares thermographic images of bilateral body parts. The software extracts features from the images and calculates the difference between the feature vectors with distance and/or similarity metrics. Based upon these metrics, the percentage deviation is calculated which provides the deviation of the unknown (test) image from the known image. The percentage deviation between the thermograms of the same body parts on either side provides an indication regarding the extent and impact of the disease [Poudel; 2015]. The previous research in veterinary thermography [Liu; 2012; Subedi; 2014, Fu; 2014, Poudel; 2015] has been combined with the real world veterinary clinical scenario to develop a software tool that can be helpful for researchers as well as for the clinical technicians in prescreening of pathologies.

Experimental Results and Discussion: Experiments were performed on ACL thermograms to determine a threshold that can separate normal and abnormal ACL images. 18-colored Meditherm images had poor results and could not suggest any threshold value. But results were positive for temperature remapped 256 gray level Meditherm images which suggested the 40% of percentage deviation could produce a separation. The total number of Normal - Normal pairs were greater than total number of Normal – Abnormal pairs below 40% deviation. Similarly, total number of Normal –Abnormal pairs of images were greater than total number of Normal – Normal pairs above 40%. This trend was consistent for Euclidean distance, maximum value distance and Minkowski distance for both texture distances of 6 and 10. The performance in terms of sensitivity and specificity was poor. The best sensitivity of 55% and best specificity of 67% was achieved. This indicates better results for predicting the absence of ACL rupture then actually finding the disease. In this case the software could be used by the clinician in conjunction with other diagnostic methods.

Conclusion: The Experiments, results and analysis show that the comparison software tool can be used in veterinary clinics for the pre-screening of diseases in canines and felines to estimate the extent and impact of the disease based upon the percentage deviation. However, more research is necessary to examine its efficacy for specific pathologies. Note that the software can be used by researchers to compare any two images of any formats. For ACL experimentation, there are indication that a threshold value is possible to separate normal from abnormal and the spectral, texture and spectral features suggested by researches [Subedi; 2014, Liu; 2012, Fu; 2014, Poudel; 2015] are not sufficient to determine that threshold with the given image database.

APA, Harvard, Vancouver, ISO, and other styles
6

Le, bars Batiste. "Event detection and structure inference for graph vectors." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASM003.

Full text
Abstract:
Cette thèse aborde différents problèmes autour de l'analyse et la modélisation de signaux sur graphes, autrement dit des données vectorielles observées sur des graphes. Nous nous intéressons en particulier à deux tâches spécifique. La première est le problème de détection d'événements, c'est-à-dire la détection d'anomalies ou de ruptures, dans un ensemble de vecteurs sur graphes. La seconde tâche consiste en l'inférence de la structure de graphe sous-jacente aux vecteurs contenus dans un ensemble de données. Dans un premier temps notre travail est orienté vers l'application. Nous proposons une méthode pour détecter des pannes ou des défaillances d'antenne dans un réseau de télécommunication.La méthodologie proposée est conçue pour être efficace pour des réseaux de communication au sens large et tient implicitement compte de la structure sous-jacente des données. Dans un deuxième temps, une nouvelle méthode d'inférence de graphes dans le cadre du Graph Signal Processing est étudiée. Dans ce problème, des notions de régularité local et global, par rapport au graphe sous-jacent, sont imposées aux vecteurs. Enfin, nous proposons de combiner la tâche d'apprentissage des graphes avec le problème de détection de ruptures. Cette fois, un cadre probabiliste est considéré pour modéliser les vecteurs, supposés ainsi être distribués selon un certain champ aléatoire de Markov. Dans notre modélisation, le graphe sous-jacent aux données peut changer dans le temps et un point de rupture est détecté chaque fois qu'il change de manière significative
This thesis addresses different problems around the analysis and the modeling of graph signals i.e. vector data that are observed over graphs. In particular, we are interested in two tasks. The rst one is the problem of event detection, i.e. anomaly or changepoint detection, in a set of graph vectors. The second task concerns the inference of the graph structure underlying the observed graph vectors contained in a data set. At first, our work takes an application oriented aspect in which we propose a method for detecting antenna failures or breakdowns in a telecommunication network. The proposed approach is designed to be eective for communication networks in a broad sense and it implicitly takes into account the underlying graph structure of the data. In a second time, a new method for graph structure inference within the framework of Graph Signal Processing is investigated. In this problem, notions of both local and globalsmoothness, with respect to the underlying graph, are imposed to the vectors.Finally, we propose to combine the graph learning task with the change-point detection problem. This time, a probabilistic framework is considered to model the vectors, assumed to be distributed from a specifc Markov Random Field. In the considered modeling, the graph underlying the data is allowed to evolve in time and a change-point is actually detected whenever this graph changes significantly
APA, Harvard, Vancouver, ISO, and other styles
7

Do, Van Long. "Sequential detection and isolation of cyber-physical attacks on SCADA systems." Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0032/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet « SCALA » financé par l’ANR à travers le programme ANR-11-SECU-0005. Son objectif consiste à surveiller des systèmes de contrôle et d’acquisition de données (SCADA) contre des attaques cyber-physiques. Il s'agit de résoudre un problème de détection-localisation séquentielle de signaux transitoires dans des systèmes stochastiques et dynamiques en présence d'états inconnus et de bruits aléatoires. La solution proposée s'appuie sur une approche par redondance analytique composée de deux étapes : la génération de résidus, puis leur évaluation. Les résidus sont générés de deux façons distinctes, avec le filtre de Kalman ou par projection sur l’espace de parité. Ils sont ensuite évalués par des méthodes d’analyse séquentielle de rupture selon de nouveaux critères d’optimalité adaptés à la surveillance des systèmes à sécurité critique. Il s'agit donc de minimiser la pire probabilité de détection manquée sous la contrainte de niveaux acceptables pour la pire probabilité de fausse alarme et la pire probabilité de fausse localisation. Pour la tâche de détection, le problème d’optimisation est résolu dans deux cas : les paramètres du signal transitoire sont complètement connus ou seulement partiellement connus. Les propriétés statistiques des tests sous-optimaux obtenus sont analysées. Des résultats préliminaires pour la tâche de localisation sont également proposés. Les algorithmes développés sont appliqués à la détection et à la localisation d'actes malveillants dans un réseau d’eau potable
This PhD thesis is registered in the framework of the project “SCALA” which received financial support through the program ANR-11-SECU-0005. Its ultimate objective involves the on-line monitoring of Supervisory Control And Data Acquisition (SCADA) systems against cyber-physical attacks. The problem is formulated as the sequential detection and isolation of transient signals in stochastic-dynamical systems in the presence of unknown system states and random noises. It is solved by using the analytical redundancy approach consisting of two steps: residual generation and residual evaluation. The residuals are firstly generated by both Kalman filter and parity space approaches. They are then evaluated by using sequential analysis techniques taking into account certain criteria of optimality. However, these classical criteria are not adequate for the surveillance of safety-critical infrastructures. For such applications, it is suggested to minimize the worst-case probability of missed detection subject to acceptable levels on the worst-case probability of false alarm and false isolation. For the detection task, the optimization problem is formulated and solved in both scenarios: exactly and partially known parameters. The sub-optimal tests are obtained and their statistical properties are investigated. Preliminary results for the isolation task are also obtained. The proposed algorithms are applied to the detection and isolation of malicious attacks on a simple SCADA water network
APA, Harvard, Vancouver, ISO, and other styles
8

Davis, Elizabeth H. "Detection of rupture-repair sequences in patterns of alliance development the effects of client vs. therapist raters and therapist training status /." Ohio : Ohio University, 2005. http://www.ohiolink.edu/etd/view.cgi?ohiou1133405084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Davis, Elizabeth Helen. "Detection of Rupture-Repair Sequences in Patterns of Alliance Development: The Effects of Client vs. Therapist Raters and Therapist Training Status." Ohio University / OhioLINK, 2005. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1133405084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Allab, Nedjmeddine. "Détection d'anomalies et de ruptures dans les séries temporelles. Applications à la gestion de production de l'électricité." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066658.

Full text
Abstract:
Continental est l'outil de référence utilisé par EDF pour la gestion d'électricité à long terme. il permet d'élaborer la stratégie d'exploitation du parc constitué de centrales réparties sur toute l'europe. l'outil simule sur chaque zone et chaque scénario plusieurs variables telles que la demande d'électricité, la quantité générée ainsi que les coûts associés. nos travaux de thèse ont pour objectif de fournir des méthodes d'analyse de ces données de production afin de faciliter leur étude et leur synthèse. nous récoltons un ensemble de problématiques auprès des utilisateurs de continental que nous tentons de résoudre à l'aide des technique de détection d'anomalies et de ruptures dans les séries temporelles
Continental is the main tool that edf uses for the long-term management of electricity. It elaborates the strategy exploitation of the electrical parc made up by power plants distributed all over europe. the tool simulates for each zone and each scenario several variables, such as the electricity demand, the generated quantity as well as the related costs. our works aim to provide methods to analyse the data of electricity production in order to ease their discovery and synthesis. we get a set of problmatics from the users of continental that we tent to solve through techniques of outliers and changepoints detection in time series
APA, Harvard, Vancouver, ISO, and other styles
11

Fuchs, Robin. "Méthodes neuronales et données mixtes : vers une meilleure résolution spatio-temporelle des écosystèmes marins et du phytoplancton." Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0295.

Full text
Abstract:
Le phytoplancton constitue un des premiers maillons du réseau trophique et génère jusqu'à 50% de la production primaire mondiale. L’étude du phytoplancton et de son environnement physique nécessite des observations ayant une résolution inférieure à la journée et au kilomètre, ainsi que la prise en compte des types hétérogènes de données impliquées et des structures de dépendance spatio-temporelles des écosystèmes marins.Cette thèse s’applique à développer des méthodes statistiques dans ce contexte en s’appuyant sur des technologies comme la cytométrie en flux automatisée. Les développements théoriques ont porté sur les modèles de cytométrie en flux automatisée profonds (DGMM) introduits par Viroli et McLachlan (2019). Afin de mieux caractériser les niches écologiques du phytoplancton, nous avons étendu ces modèles aux données mixtes (présentant des variables continues et non continues) souvent présentes en océanographie. Une méthode de clustering a ainsi été proposée ainsi qu’un algorithme de génération de données mixtes synthétiques.Concernant l'étude haute fréquence à proprement parler, des réseaux neuronaux convolutifs ont été introduits pour traiter les sorties de cytométrie en flux et étudier six groupes fonctionnels du phytoplancton en zone littorale et en océan ouvert. Des réactions différenciées et reproductibles de ces groupes ont été identifiées à la suite d'événements impulsionnels induits par le vent, soulignant l'importance du couplage entre la physique et la biologie. À cet égard, une méthode de détection de rupture a été proposée pour délimiter les zones épipélagique et mésopélagique, proposant ainsi une nouvelle base pour le calcul de budgets carbone mésopélagiques
Phytoplankton are one of the first links in the food web and generate up to 50% of the world's primary production. The study of phytoplankton and their physical environment requires observations with a resolution of less than a day and a kilometer, as well as the consideration of the heterogeneous types of data involved and the spatio-temporal dependency structures of marine ecosystems.This thesis aims to develop statistical methods in this context by using technologies such as automated flow cytometry. Theoretical developments focused on Deep Gaussian Mixture Models (DGMM) introduced by Viroli and McLachlan (2019). To better characterize phytoplankton ecological niches, we extended these models to mixed data (exhibiting continuous and non-continuous variables) often found in oceanography. A clustering method has been proposed as well as an algorithm for generating synthetic mixed data.Regarding the high-frequency study itself, convolutional neural networks have been introduced to process flow cytometry outputs and to study six functional groups of phytoplankton in the littoral zone and the open ocean. Differentiated and reproducible responses of these groups were identified following wind-induced pulse events, highlighting the importance of the coupling between physics and biology. In this regard, a change-point detection method has been proposed to delineate epipelagic and mesopelagic zones, providing a new basis for the calculation of mesopelagic carbon budgets
APA, Harvard, Vancouver, ISO, and other styles
12

Ibrahim, Dalia. "Étude théorique d'indicateurs d'analyse technique." Thesis, Nice, 2013. http://www.theses.fr/2013NICE4008.

Full text
Abstract:
L'objectif de ma thèse est d'étudier mathématiquement un indicateur de rupture de volatilité très utilisé par les praticiens en salle de marché. L'indicateur bandes de Bollinger appartient à la famille des méthodes dites d'analyse technique et donc repose exclusivement sur l'historique récente du cours considéré et un principe déduit des observations passées des marchés, indépendamment de tout modèle mathématique. Mon travail consiste à étudier les performances de cet indicateur dans un univers qui serait gouverné par des équations différentielles stochastiques (Black -Scholes) dont le coefficient de diffusion change sa valeur à un temps aléatoire inconnu et inobservable, pour un praticien désirant maximiser une fonction objectif (par exemple, une certaine utilité espérée de la valeur du portefeuille à une certaine maturité). Dans le cadre du modèle, l'indicateur de Bollinger peut s'interpréter comme un estimateur de l'instant de la prochaine rupture. On montre dans le cas des petites volatilités, que le comportement de la densité de l'indicateur dépend de la volatilité, ce qui permet pour un ratio de volatilité assez grand, de détecter via l'estimation de la distribution de l'indicateur dans quel régime de volatilité on se situe. Aussi, dans le cas des grandes volatilités, on montre par une approche via la transformée de Laplace, que le comportement asymptotique des queues de distribution de l'indicateur dépend de la volatilité. Ce qui permet de détecter le changement des grandes volatilités. Ensuite, on s'intéresse à une étude comparative entre l'indicateur de Bollinger et l'estimateur classique de la variation quadratique pour la détection de changement de la volatilité. Enfin, on étudie la gestion optimale de portefeuille qui est décrite par un problème stochastique non standard en ce sens que les contrôles admissibles sont contraints à être des fonctionnelles des prix observés. On résout ce problème de contrôle en s'inspirant de travaux de Pham and Jiao pour décomposer le problème initial d'allocation de portefeuille en un problème de gestion après la rupture et un problème avant la rupture, et chacun de ces problèmes est résolu par la méthode de la programmation dynamique . Ainsi, un théorème de verification est prouvé pour ce problème de contrôle stochastique
The aim of my thesis is to study mathematically an indicator widely used by the practitioners in the trading market, and designed to detect changes in the volatility term . The Bollinger Bands indicator belongs to the family of methods known as technical analysis which consist in looking t the past price movement in order to predict its future price movements independently of any mathematical model. We study the performance of this indicator in a universe that is governed by a stochastic differential equations (Black-Scholes) such that the volatility changes at an unknown and unobservable random time, for a practitioner seeking to maximize an objective function (for instance, the expected utility of the wealth at a certain maturity). Within the framework of the model, Bollinger indicator can be interpreted as an estimator of the time at which the volatility changes its value. We show that in the case of small volatilities, the density behavior of the indicator depends on the value of the volatility, which allows that for large ratio of volatility, to detect via the distribution estimation in which regime of volatility we are. Also , for the case of large volatilities, we show by an approach via the Laplace transform that the asymptotic tails behavior of the indictor depends on the volatility value. This allows to detect a change for large volatilities. Next, we compare two indicators designed to detect a volatility change: the Bollinger bands and the quadratic variation indicators. Finally, we study the optimal portfolio allocation which is described by a non-standard stochastic problem in view of that the admissible controls need to be adapted to the filtration generated by the prices. We resolve this control problem by an approach used by Pham and Jiao to separate the initial allocation problem into an allocation problem after the rupture and an problem before the rupture, and each one of these problems is resolved by the dynamic programming method. Also, a verification theorem is proved for this stochastic control problem
APA, Harvard, Vancouver, ISO, and other styles
13

Germain, Florence. "Estimation du mouvement dans une sequence d'images, en contexte lineaire optimal." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0030.

Full text
Abstract:
La perception du mouvement dans une sequence d'images est un element cle de la comprehension d'une scene dynamique. L'information de mouvement est partiellement observable grace aux variations spatio-temporelles de l'intensite lumineuse. Le caractere partiel de cette observation, ainsi que la presence de frontieres de mouvement, constituent deux des principales difficultes majeures liees a l'estimation du champ des vitesses. Dans la grande majorite des approches existantes, la fusion des observations est effectuee spatialement, a un instant donne. Le plus souvent, le champ de vecteurs estime est alors seulement reconduit d'un instant a l'autre. Peu de travaux exploitent la demarche duale, consistant a fusionner temporellement l'information observable. Cette demarche, particulierement seduisante en ce qu'elle permet d'assimiler le probleme des frontieres de mouvement a la detection d'instationnarites fortes sur l'etat d'un systeme dynamique, constitue la base de notre approche. Nous proposons un estimateur sequentiel du mouvement image, base sur le filtre de kalman. Le vecteur vitesse image est estime independamment en chacun des pixels de l'image, en fonction du temps. La detection des frontieres de mouvement repose sur une analyse en ligne des statistiques du signal d'innovation. Cette approche est reprise dans le cas ou l'on ne dispose que de deux images. On derive alors un estimateur recursif, obtenu par approximation de l'estimateur recursif optimal, possedant de bonnes proprietes de convergence et de stabilite. Le comportement assymptotique de l'un et l'autre de ces estimateurs est evalue sur la base de sequences de synthese et de sequences reelles. Dans le cas d'un deplacement de faible amplitude, la nature lineaire de l'observation garantit l'optimalite de l'estimation par le filtre de kalman. Afin d'etendre l'estimation au cas des grands deplacements, caracterises par une observation non lineaire, on definit une variante sous-optimale a iterations locales du filtre de kalman etendu. On retrouve la une formulation en contexte optimal de l'approche multi-resolution de type descendant, classique en vision par ordinateur
APA, Harvard, Vancouver, ISO, and other styles
14

Miallaret, Sophie. "Dynamic Monitoring Measures." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC091.

Full text
Abstract:
Les mesures sont des actes quotidiens, elles nous donnent beaucoup d'informations et permettent de prendre des décisions. L'analyse des mesures peut nous permettre d'en apprendre plus sur notre environnement, mais l'erreur d'une mesure peut avoir des conséquences importantes dans certains domaines. Dans une première partie, nous proposons, grâce à l'étude de mesures d'analyses sanguines réalisées au CHU de Clermont-Ferrand, une procédure permettant de détecter les dérives des analyseurs de laboratoires de biologie médicale, se basant sur les mesures d'analyses de patients. Après une analyse descriptive des données, la méthode mise en place, utilisant des méthodes de détection de ruptures de séries temporelles, est testée pour des simulations de ruptures représentant des décalages, des imprécisions ou des dérives d'analyseurs pour différents paramètres biologiques mesurés. La méthode est adaptée pour deux scénarios : lorsque l'on connaît ou non le service hospitalier des patients. L'étude est complétée par une analyse de l'impact de l'incertitude de mesure sur les analyses des patients. Dans une seconde partie nous étudions des mesures de formes de cendres volcaniques réalisées au Laboratoire Magmas et Volcans de l'Université Clermont Auvergne, dans le but de déterminer un lien entre les lieux de collecte et les formes des particules. Après avoir montré la dépendance entre ces paramètres, nous proposons, grâce une méthode de classification, un regroupement des particules représentant différentes populations dépendantes de la distance entre les lieux de collecte et le cratère du volcan
The measures are daily actions, they give us a lot of information and allow us to make decisions. The analysis of measures can allow us to learn more about our environment, but the error of a measure can have important consequences in certain areas. In a first part, we propose, thanks to the study of blood test measurements carried out at the CHU of Clermont-Ferrand, a procedure for detecting deviations from medical biology laboratory analyzers based on patient analysis measurements. After a descriptive analysis of the data, the method put in place, using methods of detection of breaks of time series, is tested for simulations of breaks representing offsets, imprecision or drifts of machine for different measured biological parameters. The method is adapted for two scenarios: when the patient's hospital service is known or not. The study is supplemented by an analysis of the impact of measurement uncertainty on patient analyses. In a second part we study measurements of volcanic ash forms made at “Laboratoire Magmas et Volcans” of the Clermont Auvergne University, in order to determine a link between the collection locations and the forms of the particles. After showing the dependence between these parameters, we propose, using a classification method, a grouping of particles representing different populations depending on the distance between the collection locations and the volcano crater
APA, Harvard, Vancouver, ISO, and other styles
15

Mercklé, Jean. "Stratégies de détection de rupture de modèle appliquées à la recherche et à la localisation des défauts sur des produits sidérurgiques." Nancy 1, 1988. http://www.theses.fr/1988NAN10047.

Full text
Abstract:
Élaboration de deux stratégies de "détection-localisation" de défauts dans les signaux issus du contrôle par courants de Foulcault des produits sidérurgiques. Validation de ces stratégies dans le contrôle qualité de trois procédés : élaboration de brames de coulée continue, élaboration de blooms de coulée continue et de tubes
APA, Harvard, Vancouver, ISO, and other styles
16

Laredo, Jeanette A. "Reading the Ruptured Word: Detecting Trauma in Gothic Fiction from 1764-1853." Thesis, University of North Texas, 2016. https://digital.library.unt.edu/ark:/67531/metadc862792/.

Full text
Abstract:
Using trauma theory, I analyze the disjointed narrative structure of gothic works from 1764-1853 as symptomatic of the traumatic experience. Gothic novels contain multiple structural anomalies, including gaps in experience that indicate psychological wounding, use of the supernatural to violate rational thought, and the inability of witnesses to testify to the traumatic event. These structural abnormalities are the result of trauma that characters within these texts then seek to prevent or repair via detection.
APA, Harvard, Vancouver, ISO, and other styles
17

Van, der Werff Matthew John. "Development of digital instrumentation for bond rupture detection : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand." Massey University, 2009. http://hdl.handle.net/10179/857.

Full text
Abstract:
In the medical world the precise identification of a disease can take longer than it is safe to wait to start treatment so there is a need for faster and more precise biosensors. Bond Rupture is a new sensor technique that maybe able to improve disease detection. It does this by inducing bonds to rupture from the surface, and also measuring the point at which this rupture occurs this enables the forces to be measured on the surface. Specifically, this project has focused on the application of Bond Rupture to detecting antigens when bound to a surface using their specific antibodies, and the idea that the rupture force of these antigens can also be measured. The sensor that this project is based around is the Quartz Crystal Microbalance (QCM), which oscillates horizontally when a voltage is applied, and can also be used to measure mass change on its surface via change in resonant frequency. The aim of this project was to investigate possible Bond Rupture detection methods and techniques and has involved the development of a high speed digital electronics system, for the purposes of inducing and detecting Bond Rupture. This has involved the development of a FPGA based high speed transceiver board which is controlled by a Digital Signal Processor (DSP), as well as the development of various graphical user interfaces for end user interaction. Bond rupture testing was carried out by rupturing beads from the surface of a QCM in an experiment taking as little as 20 seconds. The Bond Rupture effect has been observed via the high accuracy measurement of the frequency change while inducing Bond Rupture on the sensor, proving that the Bond Rupture effect indeed exists. The research performed is believed to be a world first in terms of the method used and accuracy acquired.
APA, Harvard, Vancouver, ISO, and other styles
18

Davy, Axel. "Modélisation de fonds complexes statiques et en mouvement : application à la détection d'événements rares dans les séries d'images." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN048/document.

Full text
Abstract:
{La première partie de cette thèse est dédiée à la modélisation d'images ou de vidéos considérés comme des fonds sur lesquels on s'attache à détecter des anomalies. Notre analyse de la littérature de la détection d'anomalie sur une seule image nous a fait identifier cinq différentes familles d'hypothèses structurelles sur le fond. Nous proposons de nouveaux algorithmes pour les problèmes de détection d'anomalie sur seule image, de détection de petites cibles sur un fond en mouvement, de détection de changements sur des images satellitaires SAR (Synthetic Aperture Radar) et de détection de nuages dans des séquences d'images de satellite optique.Dans une seconde partie, nous étudions deux autres applications de la modélisation de fond. Pour le débruitage vidéo, nous cherchons pour chaque patch de la vidéo, des patchs similaires le long de la séquence vidéo, et fournissons à un réseau de neurones convolutif les pixels centraux de ces patchs. Le modèle de fond est caché dans les poids du réseau de neurones. Cette méthode s'avère être la plus performante des méthodes par réseau de neurones comparées. Nous étudions également la synthèse de texture à partir d'un exemple. Dans ce problème, des échantillons de texture doivent être générés à partir d'un seul exemple servant de référence. Notre étude distingue les familles d'algorithmes en fonction du type de modèle adopté. Dans le cas des méthodes par réseau de neurones, nous proposons une amélioration corrigeant les artefacts de bord.Dans une troisième partie, nous proposons des implémentations temps-réel GPU de l'interpolation B-spline et de plusieurs algorithmes de débruitage d'images et de vidéo: NL-means, BM3D et VBM3D. La rapidité des implémentations proposées permet leur utilisation dans des scénarios temps-réel, et elles sont en cours de transfert vers l'industrie
The first part of this thesis is dedicated to the modeling of image or video backgrounds, applied to anomaly detection. In the case of anomaly detection on a single image, our analysis leads us to find five different families of structural assumptions on the background. We propose new algorithms for single-image anomaly detection, small target detection on moving background, change detection on satellite SAR (Synthetic Aperture Radar) images and cloud detection on a sequence of satellite optical images.In the second part, we study two further applications of background modeling. To perform video denoising we search, for every video patch, similar patches in the video sequence, and feed their central pixels to a convolutional neural network (CNN). The background model in this case is hidden in the CNN weights. In our experiments, the proposed method is the best performing of the compared CNN-based methods. We also study exemplar-based texture synthesis. In this problem texture samples have to be generated based on only one reference sample. Our survey classifies the families of algorithms for this task according to their model assumptions. In addition, we propose improvements to fix the border behavior issues that we pointed out in several deep learning based methods.In the third part, we propose real-time GPU implementations for B-spline interpolation and for several image and video denoising algorithms: NL-means, BM3D and VBM3D. The speed of the proposed implementations enables their use in real-time scenarios, and they are currently being transitioned to industry
APA, Harvard, Vancouver, ISO, and other styles
19

Debbabi, Nehla. "Approche algébrique et théorie des valeurs extrêmes pour la détection de ruptures : Application aux signaux biomédicaux." Thesis, Reims, 2015. http://www.theses.fr/2015REIMS025/document.

Full text
Abstract:
Ce travail développe des techniques non-supervisées de détection et de localisation en ligne de ruptures dans les signaux enregistrés dans un environnement bruité. Ces techniques reposent sur l'association d'une approche algébrique avec la TVE. L'approche algébrique permet d'appréhender aisément les ruptures en les caractérisant en termes de distributions de Dirac retardées et leurs dérivées dont la manipulation est facile via le calcul opérationnel. Cette caractérisation algébrique, permettant d'exprimer explicitement les instants d'occurrences des ruptures, est complétée par une interprétation probabiliste en termes d'extrêmes : une rupture est un évènement rare dont l'amplitude associée est relativement grande. Ces évènements sont modélisés dans le cadre de la TVE, par une distribution de Pareto Généralisée. Plusieurs modèles hybrides sont proposés dans ce travail pour décrire à la fois le comportement moyen (bruit) et les comportements extrêmes (les ruptures) du signal après un traitement algébrique. Des algorithmes entièrement non-supervisés sont développés pour l'évaluation de ces modèles hybrides, contrairement aux techniques classiques utilisées pour les problèmes d'estimation en question qui sont heuristiques et manuelles. Les algorithmes de détection de ruptures développés dans cette thèse ont été validés sur des données générées, puis appliqués sur des données réelles provenant de différents phénomènes, où les informations à extraire sont traduites par l'apparition de ruptures
This work develops non supervised techniques for on-line detection and location of change-points in noisy recorded signals. These techniques are based on the combination of an algebraic approach with the Extreme Value Theory (EVT). The algebraic approach offers an easy identification of the change-points. It characterizes them in terms of delayed Dirac distributions and their derivatives which are easily handled via operational calculus. This algebraic characterization, giving rise to an explicit expression of the change-points locations, is completed with a probabilistic interpretation in terms of extremes: a change point is seen as a rare and extreme event. Based on EVT, these events are modeled by a Generalized Pareto Distribution.Several hybrid multi-components models are proposed in this work, modeling at the same time the mean behavior (noise) and the extremes ones (change-points) of the signal after an algebraic processing. Non supervised algorithms are proposed to evaluate these hybrid models, avoiding the problems encountered with classical estimation methods which are graphical ad hoc ones. The change-points detection algorithms developed in this thesis are validated on generated data and then applied on real data, stemming from different phenomenons, where change-points represent the information to be extracted
APA, Harvard, Vancouver, ISO, and other styles
20

Vozel, Benoit. "Etude comparative d'algorithmes recursifs de detection de ruptures spectrales." Nantes, 1994. http://www.theses.fr/1994NANT2021.

Full text
Abstract:
La problematique correspondant a la detection precoce et au diagnostic de changements brusques dans les proprietes dynamiques des signaux aleatoires donne lieu a differentes approches. Nous nous interessons dans ce memoire aux methodes sequentielles basees sur la notion de ruptures de modeles, ou l'existence d'une modelisation dynamique parametrique du signal de type autoregressive ou autoregressive a moyenne mobile, presentant instantanement de brusques variations est admise. Nous en presentons une approche unifiee et comparative en distinguant les methodes travaillant par surveillance des proprietes statistiques de l'erreur de prediction (liee a l'identification du modele) de celles utilisant une distance entre modeles estimes, issus de l'identification sur des fenetres de taille differente (generalement, une fenetre long terme donnant un modele de reference et une fenetre court terme donnant un modele test). L'emploi d'une distance originale entre modeles estimes ou les matrices d'erreur d'estimation associees sont prises en compte (l'identification etant realisee sur des echantillons de longueur finie du signal) est alors proposee. Une conclusion, basee sur les statistiques de resultats obtenus par la mise en uvre systematique des differentes methodes sur des signaux tests synthetiques et reels est tiree quant a l'efficacite des differentes methodes et permet d'apprecier l'amelioration significative apportee par la methode proposee. Enfin, une ouverture sur les signaux non stationnaires presentant des changements brusques est envisagee
APA, Harvard, Vancouver, ISO, and other styles
21

Laurent, Hélène. "Detection de ruptures spectrales dans le plan temps-frequence." Nantes, 1998. http://www.theses.fr/1998NANT2081.

Full text
Abstract:
Ce travail porte sur la detection de changements spectraux brusques a l'aide de representations temps-frequence (rtfs). Ce probleme se rencontre souvent pour la surveillance de machines tournantes ou pour la segmentation de signaux. Les principaux outils developpes jusqu'a ce jour pour le diagnostic de changements brusques utilisent des methodes parametriques. Cependant celles-ci se trouvent souvent mises en defaut lors de la detection de ruptures rapprochees. De plus, leurs performances sont soumises a la bonne adequation entre le processus reel et le modele estime, laquelle n'est pas toujours accessible. C'est pourquoi l'alternative proposee par une approche temps-frequence ne necessitant aucune connaissance a priori sur la structure du signal parait prometteuse. Le premier chapitre de ce manuscrit est consacre aux rtfs. Nous nous sommes particulierement interesses au groupe de cohen, classe des representations covariantes par translation temporelle et frequentielle. Le deuxieme chapitre expose une partie des outils d'aide a la decision utilises actuellement. Divers algorithmes originaux, bases sur l'utilisation d'indices de stationnarite resultant du calcul de distances entre rtfs ont ete developpes. Ils sont presentes dans les deux derniers chapitres consacres respectivement a la segmentation et a la surveillance. Pour chaque contexte, les performances des differents indices sont etudies sur des signaux synthetiques grace a une analyse statistique incluant moyenne et variance des estimes des instants de ruptures. Des comparaisons sont faites avec d'autres approches parametriques et non parametriques. Enfin, dans les deux cas, ces indices sont appliques sur des signaux reels pour respectivement la segmentation de signaux musicaux et la surveillance de trains d'engrenages droits.
APA, Harvard, Vancouver, ISO, and other styles
22

Harlé, Flore. "Détection de ruptures multiples dans des séries temporelles multivariées : application à l'inférence de réseaux de dépendance." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT043/document.

Full text
Abstract:
Cette thèse présente une méthode pour la détection hors-ligne de multiples ruptures dans des séries temporelles multivariées, et propose d'en exploiter les résultats pour estimer les relations de dépendance entre les variables du système. L'originalité du modèle, dit du Bernoulli Detector, réside dans la combinaison de statistiques locales issues d'un test robuste, comparant les rangs des observations, avec une approche bayésienne. Ce modèle non paramétrique ne requiert pas d'hypothèse forte sur les distributions des données. Il est applicable sans ajustement à la loi gaussienne comme sur des données corrompues par des valeurs aberrantes. Le contrôle de la détection d'une rupture est prouvé y compris pour de petits échantillons. Pour traiter des séries temporelles multivariées, un terme est introduit afin de modéliser les dépendances entre les ruptures, en supposant que si deux entités du système étudié sont connectées, les événements affectant l'une s'observent instantanément sur l'autre avec une forte probabilité. Ainsi, le modèle s'adapte aux données et la segmentation tient compte des événements communs à plusieurs signaux comme des événements isolés. La méthode est comparée avec d'autres solutions de l'état de l'art, notamment sur des données réelles de consommation électrique et génomiques. Ces expériences mettent en valeur l'intérêt du modèle pour la détection de ruptures entre des signaux indépendants, conditionnellement indépendants ou complètement connectés. Enfin, l'idée d'exploiter les synchronisations entre les ruptures pour l'estimation des relations régissant les entités du système est développée, grâce au formalisme des réseaux bayésiens. En adaptant la fonction de score d'une méthode d'apprentissage de la structure, il est vérifié que le modèle d'indépendance du système peut être en partie retrouvé grâce à l'information apportée par les ruptures, estimées par le modèle du Bernoulli Detector
This thesis presents a method for the multiple change-points detection in multivariate time series, and exploits the results to estimate the relationships between the components of the system. The originality of the model, called the Bernoulli Detector, relies on the combination of a local statistics from a robust test, based on the computation of ranks, with a global Bayesian framework. This non parametric model does not require strong hypothesis on the distribution of the observations. It is applicable without modification on gaussian data as well as data corrupted by outliers. The detection of a single change-point is controlled even for small samples. In a multivariate context, a term is introduced to model the dependencies between the changes, assuming that if two components are connected, the events occurring in the first one tend to affect the second one instantaneously. Thanks to this flexible model, the segmentation is sensitive to common changes shared by several signals but also to isolated changes occurring in a single signal. The method is compared with other solutions of the literature, especially on real datasets of electrical household consumption and genomic measurements. These experiments enhance the interest of the model for the detection of change-points in independent, conditionally independent or fully connected signals. The synchronization of the change-points within the time series is finally exploited in order to estimate the relationships between the variables, with the Bayesian network formalism. By adapting the score function of a structure learning method, it is checked that the independency model that describes the system can be partly retrieved through the information given by the change-points, estimated by the Bernoulli Detector
APA, Harvard, Vancouver, ISO, and other styles
23

Myers, Vincent. "Le traitement, l'interprétation et l'exploitation d'images sonar à antenne synthétique obtenues à partir de trajectoires répétitives." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2019. http://www.theses.fr/2019ENTA0002.

Full text
Abstract:
De nombreux scénarios existent qui exigent la surveillance d’une scène sous-marine en acquérant plusieurs images sonar haute-fréquence à différent moments afin de détecter des changements qui ont eu lieu pendant l’intervalle de temps entre les levés. La disponibilité croissante de sonars à antenne synthétique (SAS) commerciaux, fait en sorte qu’il est concevable d’exploiter la cohérence de phase entre deux images complexes afin de détecter des changements dans la scène qui sont difficilement perceptibles, voire invisibles, dans les images d’amplitude. Cette thèse examine le concept de détection cohérente de changements (DCC) avec des images SAS obtenues à partir de trajectoires répétitives sur la même zone. Comme les images doivent être traitées de manière interférométrique, le problème du recalage des images est examiné et des approches basées sur la déformation des images ainsi que la re-navigation et reformation de voies sont proposées. Des méthodes pour réduire le taux de fausses alarmes sont aussi examinées de sorte à réduire le nombre de détections causées par des pertes de cohérence qui ne sont pas attribuables à une cible d’intérêt. Ces méthodes sont testées sur plusieurs images SAS obtenues durant des essais en mer avec des systèmes qui traversent diverses bandes fréquentielles et conditions environnementales
There are many scenarios which call for the surveillance of an underwater scene by means of repeated surveys with high-frequency imaging sonar in order to detect changes which may have occurred during the intervening time interval. With the growing availability of commercial synthetic aperture sonar (SAS) systems it becomes possible to exploit the phase coherence between two complex SAS images in order to detect scene changes which are subtle or even invisible to approaches using only the amplitude of the images. This thesis examines the concept of coherent change detection (CCD) using SAS imagery obtained from separate, repeated passes over the same area. As the images must be processed interferometrically, the challenging problem of co-registration is addressed, with approaches based on image warping as well as renavigation / re-imaging. False alarm reduction techniques are also examined in order to mitigate detections caused by coherence losses which are not attributed to the insertion or removal of targets of interest. The proposed methods are tested on several repeat-pass SAS images collected during experiments at sea, spanning multiple frequency bands and environmental conditions, and show that SAS CCD is not only possible, but also able to detect very subtle scene changes that not observable using standard approaches
APA, Harvard, Vancouver, ISO, and other styles
24

Kouamé, Denis. "Modelisation parametrique et detection de ruptures en traitement du signal ultrasonore." Tours, 1996. http://www.theses.fr/1996TOUR4015.

Full text
Abstract:
L'utilisation des ultrasons dans les domaines industriel et medical revet une importance capitale a l'heure actuelle. De nombreuses etudes ont de ce fait ete menees pour diminuer les couts et ameliorer les performances des transducteurs qui servent a les generer et a les detecter. Dans bien des cas, le traitement du signal indispensable associe demeure sommaire et inadapte aux contraintes de temps reel et a la prise en compte de non-stationnarites. L'objet de cette these est l'extraction de caracteristiques de systemes physiques, a partir de signaux doppler ultrasonores. Deux applications specifiques vont motiver cette etude. 1) la mesure de la vitesse d'ecoulement d'un fluide. Sa finalite est d'ameliorer la precision des methodes usuelles utilisees dans les appareils de mesure de flux (tels que les debitmetres) conventionnels, ainsi que leurs aptitudes a suivre les non-stationnarites. 2) la detection d'emboles, c'est-a-dire la detection du passage de particules etrangeres a la constitution normale du sang, mais transportees lors de son ecoulement. Le but est ici de detecter, en temps reel et de facon aussi certaine que possible, le passage de micro-emboles qui peuvent etre a l'origine de graves pathologies. Pour resoudre ces deux problemes, nous utilisons des approches reposant sur l'identification parametrique. Agin de surmonter les inconvenients des methodes d'estimation parametrique conventionnelle des moindres carres, nous presentons une nouvelle approche fondee sur la prise en compte des connaissances partielles disponibles pendant l'estimation et sur l'utilisation de l'operateur delta. Le nouvel estimateur, utilise conjointement avec une procedure d'estimation de la frequence doppler fondee sur la decomposition de la densite spectrale de puissance, a permis d'apporter une reponse en terme de rapidite et de precision au probleme de la velocimetrie, dans le cas de signaux fortement non stationnaires. Le probleme de la detection d'emboles a ete pose dans le cadre de la detection de ruptures de modeles. Plusieurs procedures sont ainsi comparees, et la compensation de la rupture revisitee. La validation des methodes employees est realisee a partir d'une part, de simulations et d'autre part, de signaux reels
APA, Harvard, Vancouver, ISO, and other styles
25

RAMDANI, LOUNI RABEA. "Detection de ruptures de modeles et identification parametrique hybride de systemes non stationnaires." Paris 6, 1993. http://www.theses.fr/1993PA066460.

Full text
Abstract:
Une contribution a la detection de ruptures de modele hybride (operateurs q# et delta) pour signaux et systemes non stationnaires, est proposee: elle est basee sur un test d'hypotheses construit sur un intervalle de confiance fonction des distributions chi2, fisher et student, et, de la deviation du rapport de vraisemblance recursif. Une procedure complete d'identification adaptative hybride de parametres variant brusquement dans le temps, pilotee par le diagnostic obtenu, de rupture ou de non rupture, est etablie suivant 4 phases: 1) construction a partir de l'algorithme des moindres carres hybride du signal information porteur de la signature de la rupture; 2) choix de l'un des 4 tests statistiques decidant de l'occurrence de la rupture, independamment d'un seuil; 3) estimation de l'instant de rupture; 4) phase de compensation indirecte du gain d'adaptation, faite seulement lorsqu'une rupture est detectee, et fonction soit de la matrice information de fisher, soit de la covariance de l'incrementation du filtre. L'etude des 8 variantes d'algorithmes obtenues par operateur est focalisee sur la qualite de l'estimation estimee par leur capacite de poursuivre les variations parametriques. Les resultats de l'application a des signaux de synthese autoregressifs, a des signaux reels de chaussee (diagnostic), puis a l'identification des parametres variables de l'axe d'un robot, permettent une etude comparative des algorithmes d'estimation adaptative pilotee par test statistique de detection de rupture et illustrent leur comportement: 1) leur capacite de poursuite est souvent superieure a celle des moindres carres avec facteur d'oubli constant et 2) la superiorite de l'operateur delta en presence de surechantillonnage est mise en evidence
APA, Harvard, Vancouver, ISO, and other styles
26

Baysse, Camille. "Analyse et optimisation de la fiabilité d'un équipement opto-électrique équipé de HUMS." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00986112.

Full text
Abstract:
Dans le cadre de l'optimisation de la fiabilité, Thales Optronique intègre désormais dans ses équipements, des systèmes d'observation de leur état de fonctionnement. Cette fonction est réalisée par des HUMS (Health & Usage Monitoring System). L'objectif de cette thèse est de mettre en place dans le HUMS, un programme capable d'évaluer l'état du système, de détecter les dérives de fonctionnement, d'optimiser les opérations de maintenance et d'évaluer les risques d'échec d'une mission, en combinant les procédés de traitement des données opérationnelles (collectées sur chaque appareil grâce au HUMS) et prévisionnelles (issues des analyses de fiabilité et des coûts de maintenance, de réparation et d'immobilisation). Trois algorithmes ont été développés. Le premier, basé sur un modèle de chaînes de Markov cachées, permet à partir de données opérationnelles, d'estimer à chaque instant l'état du système, et ainsi, de détecter un mode de fonctionnement dégradé de l'équipement (diagnostic). Le deuxième algorithme permet de proposer une stratégie de maintenance optimale et dynamique. Il consiste à rechercher le meilleur instant pour réaliser une maintenance, en fonction de l'état estimé de l'équipement. Cet algorithme s'appuie sur une modélisation du système, par un processus Markovien déterministe par morceaux (noté PDMP) et sur l'utilisation du principe d'arrêt optimal. La date de maintenance est déterminée à partir des données opérationnelles, prévisionnelles et de l'état estimé du système (pronostic). Quant au troisième algorithme, il consiste à déterminer un risque d'échec de mission et permet de comparer les risques encourus suivant la politique de maintenance choisie.Ce travail de recherche, développé à partir d'outils sophistiqués de probabilités théoriques et numériques, a permis de définir un protocole de maintenance conditionnelle à l'état estimé du système, afin d'améliorer la stratégie de maintenance, la disponibilité des équipements au meilleur coût, la satisfaction des clients et de réduire les coûts d'exploitation.
APA, Harvard, Vancouver, ISO, and other styles
27

Truong, Charles. "Détection de ruptures multiples – application aux signaux physiologiques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN030/document.

Full text
Abstract:
Ce travail s’intéresse au problème de détection de ruptures multiples dans des signaux physiologiques (univariés ou multivariés). Ce type de signaux comprend par exemple les électrocardiogrammes (ECG), électroencéphalogrammes (EEG), les mesures inertielles (accélérations, vitesses de rotation, etc.). L’objectif de cette thèse est de fournir des algorithmes de détection de ruptures capables (i) de gérer de long signaux, (ii) d’être appliqués dans de nombreux scénarios réels, et (iii) d’intégrer la connaissance d’experts médicaux. Par ailleurs, les méthodes totalement automatiques, qui peuvent être utilisées dans un cadre clinique, font l’objet d’une attention particulière. Dans cette optique, des procédures robustes de détection et des stratégies supervisées de calibration sont décrites, et une librairie Python open-source et documentée, est mise en ligne.La première contribution de cette thèse est un algorithme sous-optimal de détection de ruptures, capable de s’adapter à des contraintes sur temps de calcul, tout en conservant la robustesse des procédures optimales. Cet algorithme est séquentiel et alterne entre les deux étapes suivantes : une rupture est détectée, puis retranchée du signal grâce à une projection. Dans le cadre de sauts de moyenne, la consistance asymptotique des instants estimés de ruptures est démontrée. Nous prouvons également que cette stratégie gloutonne peut facilement être étendue à d’autres types de ruptures, à l’aide d’espaces de Hilbert à noyau reproduisant. Grâce à cette approche, des hypothèses fortes sur le modèle génératif des données ne sont pas nécessaires pour gérer des signaux physiologiques. Les expériences numériques effectuées sur des séries temporelles réelles montrent que ces méthodes gloutonnes sont plus précises que les méthodes sous-optimales standards et plus rapides que les algorithmes optimaux.La seconde contribution de cette thèse comprend deux algorithmes supervisés de calibration automatique. Ils utilisent tous les deux des exemples annotés, ce qui dans notre contexte correspond à des signaux segmentés. La première approche apprend le paramètre de lissage pour la détection pénalisée d’un nombre inconnu de ruptures. La seconde procédure apprend une transformation non-paramétrique de l’espace de représentation, qui améliore les performances de détection. Ces deux approches supervisées produisent des algorithmes finement calibrés, capables de reproduire la stratégie de segmentation d’un expert. Des résultats numériques montrent que les algorithmes supervisés surpassent les algorithmes non-supervisés, particulièrement dans le cas des signaux physiologiques, où la notion de rupture dépend fortement du phénomène physiologique d’intérêt.Toutes les contributions algorithmiques de cette thèse sont dans "ruptures", une librairie Python open-source, disponible en ligne. Entièrement documentée, "ruptures" dispose également une interface consistante pour toutes les méthodes
This work addresses the problem of detecting multiple change points in (univariate or multivariate) physiological signals. Well-known examples of such signals include electrocardiogram (ECG), electroencephalogram (EEG), inertial measurements (acceleration, angular velocities, etc.). The objective of this thesis is to provide change point detection algorithms that (i) can handle long signals, (ii) can be applied on a wide range of real-world scenarios, and (iii) can incorporate the knowledge of medical experts. In particular, a greater emphasis is placed on fully automatic procedures which can be used in daily clinical practice. To that end, robust detection methods as well as supervised calibration strategies are described, and a documented open-source Python package is released.The first contribution of this thesis is a sub-optimal change point detection algorithm that can accommodate time complexity constraints while retaining most of the robustness of optimal procedures. This algorithm is sequential and alternates between the two following steps: a change point is estimated then its contribution to the signal is projected out. In the context of mean-shifts, asymptotic consistency of estimated change points is obtained. We prove that this greedy strategy can easily be extended to other types of changes, by using reproducing kernel Hilbert spaces. Thanks this novel approach, physiological signals can be handled without making assumption of the generative model of the data. Experiments on real-world signals show that those approaches are more accurate than standard sub-optimal algorithms and faster than optimal algorithms.The second contribution of this thesis consists in two supervised algorithms for automatic calibration. Both rely on labeled examples, which in our context, consist in segmented signals. The first approach learns the smoothing parameter for the penalized detection of an unknown number of changes. The second procedure learns a non-parametric transformation of the representation space, that improves detection performance. Both supervised procedures yield finely tuned detection algorithms that are able to replicate the segmentation strategy of an expert. Results show that those supervised algorithms outperform unsupervised algorithms, especially in the case of physiological signals, where the notion of change heavily depends on the physiological phenomenon of interest.All algorithmic contributions of this thesis can be found in ``ruptures'', an open-source Python library, available online. Thoroughly documented, ``ruptures'' also comes with a consistent interface for all methods
APA, Harvard, Vancouver, ISO, and other styles
28

Gautrelet, Christophe. "Développement et exploitation d'un banc vibratoire en flexion pour les essais de fatigue Linearity investigation from a vibratory fatigue bench Fatigue curves of a low carbon steel obtained from vibration experiments with an electrodynamic shaker." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMIR21.

Full text
Abstract:
Dans le but de fournir des données expérimentales pour alimenter les modèles numériques développés au Laboratoire de Mécanique de Normandie, nous avons mis en place un banc d'essais uniaxiaux en fatigue vibratoire permettant de tester des structures à grand nombre de cycles. Après la rédaction d’un cahier des charges pour définir les caractéristiques d’excitations et de mesures, une étude de qualification de ce moyen d’essais est présentée afin d’obtenir les plages de performance basée sur l’hypothèse de linéarité du système. Ensuite, pour vérifier la faisabilité en fatigue, nous avons réalisé une étude visant à établir une courbe de caractérisation d’un acier bas carbone. Néanmoins, ce banc d’essais ne permet pas de distinguer les phases d’initiation de fissure, de propagation et de rupture. Nous avons donc proposé quelques pistes pour évaluer le nombre de cycles à fissuration : la première est basée sur la variation de pente de l’amplitude de déformation mesurée à partir de jauges de déformation et la seconde utilise le décalage de la fréquence de résonance. Nous avons ainsi proposé un modèle simple de dommage non linéaire basé sur la variation de la fréquence de résonance qui permet également d'évaluer les nombres de cycles à la rupture des spécimens. La durée de vie en fatigue expérimentale obtenue par ce modèle est confrontée avec celle en fatigue obtenue par un modèle de dommage issu de la littérature
The aim of Laboratory of Mechanics of Normandy is to provide experimental data to enhance the numerical models developed for structural design. Therefore, we have set up a vibration-based uniaxial bending bench for testing structures under a high cycle fatigue. After setting up specifications to specify the characteristics of the excitations and measurements, a qualification investigation of this test bench is presented in order to obtain the performance ranges based on the assumption of the system linearity. Then, to verify the feasibility in fatigue, we conducted a study to establish a characterization curve of a low carbon steel. Nevertheless, this test bench does not distinguish the phases of initiation, propagation and fracture of the crack. We have therefore proposed some ways to assess the cycle number of crack initiation: the first one is based on the slope variation of the strain amplitude measured from strain gauges and the second one uses the resonant frequency drop. We have thus proposed a simple model of nonlinear damage based on the variation of the resonant frequency which also makes it possible to evaluate the cycle number at fracture of the specimens. The experimental fatigue life obtained by this model is compared with the fatigue life obtained by a damage model provided by the literature
APA, Harvard, Vancouver, ISO, and other styles
29

Sorba, Olivier. "Pénalités minimales pour la sélection de modèle." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS043/document.

Full text
Abstract:
Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme
L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law
APA, Harvard, Vancouver, ISO, and other styles
30

Ternynck, Camille. "Contributions à la modélisation de données spatiales et fonctionnelles : applications." Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30062/document.

Full text
Abstract:
Dans ce mémoire de thèse, nous nous intéressons à la modélisation non paramétrique de données spatiales et/ou fonctionnelles, plus particulièrement basée sur la méthode à noyau. En général, les échantillons que nous avons considérés pour établir les propriétés asymptotiques des estimateurs proposés sont constitués de variables dépendantes. La spécificité des méthodes étudiées réside dans le fait que les estimateurs prennent en compte la structure de dépendance des données considérées.Dans une première partie, nous appréhendons l’étude de variables réelles spatialement dépendantes. Nous proposons une nouvelle approche à noyau pour estimer les fonctions de densité de probabilité et de régression spatiales ainsi que le mode. La particularité de cette approche est qu’elle permet de tenir compte à la fois de la proximité entre les observations et de celle entre les sites. Nous étudions les comportements asymptotiques des estimateurs proposés ainsi que leurs applications à des données simulées et réelles.Dans une seconde partie, nous nous intéressons à la modélisation de données à valeurs dans un espace de dimension infinie ou dites "données fonctionnelles". Dans un premier temps, nous adaptons le modèle de régression non paramétrique introduit en première partie au cadre de données fonctionnelles spatialement dépendantes. Nous donnons des résultats asymptotiques ainsi que numériques. Puis, dans un second temps, nous étudions un modèle de régression de séries temporelles dont les variables explicatives sont fonctionnelles et le processus des innovations est autorégressif. Nous proposons une procédure permettant de tenir compte de l’information contenue dans le processus des erreurs. Après avoir étudié le comportement asymptotique de l’estimateur à noyau proposé, nous analysons ses performances sur des données simulées puis réelles.La troisième partie est consacrée aux applications. Tout d’abord, nous présentons des résultats de classification non supervisée de données spatiales (multivariées), simulées et réelles. La méthode de classification considérée est basée sur l’estimation du mode spatial, obtenu à partir de l’estimateur de la fonction de densité spatiale introduit dans le cadre de la première partie de cette thèse. Puis, nous appliquons cette méthode de classification basée sur le mode ainsi que d’autres méthodes de classification non supervisée de la littérature sur des données hydrologiques de nature fonctionnelle. Enfin, cette classification des données hydrologiques nous a amené à appliquer des outils de détection de rupture sur ces données fonctionnelles
In this dissertation, we are interested in nonparametric modeling of spatial and/or functional data, more specifically based on kernel method. Generally, the samples we have considered for establishing asymptotic properties of the proposed estimators are constituted of dependent variables. The specificity of the studied methods lies in the fact that the estimators take into account the structure of the dependence of the considered data.In a first part, we study real variables spatially dependent. We propose a new kernel approach to estimating spatial probability density of the mode and regression functions. The distinctive feature of this approach is that it allows taking into account both the proximity between observations and that between sites. We study the asymptotic behaviors of the proposed estimates as well as their applications to simulated and real data. In a second part, we are interested in modeling data valued in a space of infinite dimension or so-called "functional data". As a first step, we adapt the nonparametric regression model, introduced in the first part, to spatially functional dependent data framework. We get convergence results as well as numerical results. Then, later, we study time series regression model in which explanatory variables are functional and the innovation process is autoregressive. We propose a procedure which allows us to take into account information contained in the error process. After showing asymptotic behavior of the proposed kernel estimate, we study its performance on simulated and real data.The third part is devoted to applications. First of all, we present unsupervised classificationresults of simulated and real spatial data (multivariate). The considered classification method is based on the estimation of spatial mode, obtained from the spatial density function introduced in the first part of this thesis. Then, we apply this classification method based on the mode as well as other unsupervised classification methods of the literature on hydrological data of functional nature. Lastly, this classification of hydrological data has led us to apply change point detection tools on these functional data
APA, Harvard, Vancouver, ISO, and other styles
31

Fhima, Mehdi. "Détection de ruptures et mouvement Brownien multifractionnaire." Thesis, Clermont-Ferrand 2, 2011. http://www.theses.fr/2011CLF22197.

Full text
Abstract:
Dans cette thèse, nous développons une nouvelle méthode de détection de ruptures "Off-line", appelée Dérivée Filtrée avec p-value, sur des paramètres d'une suite de variables aléatoires indépendantes, puis sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cette thèse est composée de trois articles. Dans un premier article paru dans Sequential Analysis nous posons les bases de la méthode Dérivée Filtrée avec p-value (FDpV) en l'appliquant à une suite de variables aléatoires indépendantes. La méthode a une complexité linéaire en temps et en mémoire. Elle est constituée de deux étapes. La première étape utilisant la méthode Dérivée Filtrée détecte les bons instants de ruptures, mais également certaines fausses alarmes. La deuxième étape attribue une p-value à chaque instant de rupture potentiel détecté à la première étape, et élimine les instants dont la p-value est inférieure à un certain seuil critique. Nous démontrons les propriétés asymptotiques nécessaires à la calibration de la méthode. L'efficacité de la méthode a été prouvé tant sur des données simulées que sur des données réelles. Ensuite, nous nous sommes attaqués à l'application de la méthode pour la détection de ruptures sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cela s'est fait en deux phases. La première phase a fait l'objet d'un article à paraitre dans ESAIM P&S où nous avons établi un Théorème Central Limite pour l'estimateur du paramètre de Hurst appelé Increment Ratio Statistic (IRS). Puis, nous avons proposé une version localisée de l'IRS et démontré un TCL local pour estimer la fonction de Hurst d'un mouvement Brownien multifractionnaire. Les preuves sont intuitives et se distinguent par leur simplicité. Elles s'appuient sur le théorème de Breuer-Major et une stratégie originale appelée "freezing of time". La deuxième phase repose sur un nouvel article soumis pour publication. Nous adaptons la méthode FDpV pour détecter des ruptures sur l'indice de Hurst d'un mouvement Brownien fractionnaire constant par morceaux. La statistique sous-jacent de l'algorithme FDpV est un nouvel estimateur de l'indice de Hurst, appelé Increment Zero-Crossing Statistic (IZCS) qui est une variante de l'IRS. La combinaison des méthodes FDpV + IZCS constitue une procédure efficace et rapide avec une complexité linéaire en temps et en mémoire
This Ph.D dissertation deals with "Off-line" detection of change points on parameters of time series of independent random variables, and in the Hurst parameter of multifrcational Brownian motion. It consists of three articles. In the first paper, published in Sequential Analysis, we set the cornerstones of the Filtered Derivative with p-Value method for the detection of change point on parameters of independent random variables. This method has linear time and memory complexities, with respect to the size of the series. It consists of two steps. The first step is based on Filtered Derivative method which detects the right change points as well as the false ones. We improve the Filtered Derivative method by adding a second step in which we compute the p-values associated to every single potential change point. Then we eliminate false alarms, i.e. the change points which have p-value smaller than a given critical level. We showed asymptotic properties needed for the calibration of the algorithm. The effectiveness of the method has been proved both on simulated data and on real data. Then we moved to the application of the method for the detection of change point on the Hurst parameter of multifractional Brownian motion. This was done in two phases. In the first phase, a paper is to be published in ESAIM P&S where we investigated the Central Limit Theorem of the Increment Ratio Statistic of a multifractional Brownian motion, leading to a CLT for the time varying Hurst index. The proofs are quite simple relying on Breuer-Major theorems and an original freezing of time strategy.The second phase relies on a new paper submitted for publication. We adapted the FDpV method to detect change points on the Hurst parameter of piecewise fractional Brownian motion. The underlying statistics of the FDpV technology is a new statistic estimator for Hurst index, so-called Increment Zero-Crossing Statistic (IZCS) which is a variation of IRS. Both FDpV and IZCS are methods with linear time and memory complexities, with respect to the size of the series
APA, Harvard, Vancouver, ISO, and other styles
32

Garreau, Damien. "Change-point detection and kernel methods." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE061/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à une méthode de détection des ruptures dans une suite d’observations appartenant à un ensemble muni d’un noyau semi-défini positif. Cette procédure est une version « à noyaux » d’une méthode des moindres carrés pénalisés. Notre principale contribution est de montrer que, pour tout noyau satisfaisant des hypothèses raisonnables, cette méthode fournit une segmentation proche de la véritable segmentation avec grande probabilité. Ce résultat est obtenu pour un noyau borné et une pénalité linéaire, ainsi qu’une autre pénalité venant de la sélection de modèles. Les preuves reposent sur un résultat de concentration pour des variables aléatoires bornées à valeurs dans un espace de Hilbert, et nous obtenons une version moins précise de ce résultat lorsque l’on supposeseulement que la variance des observations est finie. Dans un cadre asymptotique, nous retrouvons les taux minimax usuels en détection de ruptures lorsqu’aucune hypothèse n’est faite sur la taille des segments. Ces résultats théoriques sont confirmés par des simulations. Nous étudions également de manière détaillée les liens entre différentes notions de distances entre segmentations. En particulier, nous prouvons que toutes ces notions coïncident pour des segmentations suffisamment proches. D’un point de vue pratique, nous montrons que l’heuristique du « saut de dimension » pour choisir la constante de pénalisation est un choix raisonnable lorsque celle-ci est linéaire. Nous montrons également qu’une quantité clé dépendant du noyau et qui apparaît dans nos résultats théoriques influe sur les performances de cette méthode pour la détection d’une unique rupture. Dans un cadre paramétrique, et lorsque le noyau utilisé est invariant partranslation, il est possible de calculer cette quantité explicitement. Grâce à ces calculs, nouveaux pour plusieurs d’entre eux, nous sommes capable d’étudier précisément le comportement de la constante de pénalité maximale. Pour finir, nous traitons de l’heuristique de la médiane, un moyen courant de choisir la largeur de bande des noyaux à base de fonctions radiales. Dans un cadre asymptotique, nous montrons que l’heuristique de la médiane se comporte à la limite comme la médiane d’une distribution que nous décrivons complètement dans le cadre du test à deux échantillons à noyaux et de la détection de ruptures. Plus précisément, nous montrons que l’heuristique de la médiane est approximativement normale centrée en cette valeur
In this thesis, we focus on a method for detecting abrupt changes in a sequence of independent observations belonging to an arbitrary set on which a positive semidefinite kernel is defined. That method, kernel changepoint detection, is a kernelized version of a penalized least-squares procedure. Our main contribution is to show that, for any kernel satisfying some reasonably mild hypotheses, this procedure outputs a segmentation close to the true segmentation with high probability. This result is obtained under a bounded assumption on the kernel for a linear penalty and for another penalty function, coming from model selection.The proofs rely on a concentration result for bounded random variables in Hilbert spaces and we prove a less powerful result under relaxed hypotheses—a finite variance assumption. In the asymptotic setting, we show that we recover the minimax rate for the change-point locations without additional hypothesis on the segment sizes. We provide empirical evidence supporting these claims. Another contribution of this thesis is the detailed presentation of the different notions of distances between segmentations. Additionally, we prove a result showing these different notions coincide for sufficiently close segmentations.From a practical point of view, we demonstrate how the so-called dimension jump heuristic can be a reasonable choice of penalty constant when using kernel changepoint detection with a linear penalty. We also show how a key quantity depending on the kernelthat appears in our theoretical results influences the performance of kernel change-point detection in the case of a single change-point. When the kernel is translationinvariant and parametric assumptions are made, it is possible to compute this quantity in closed-form. Thanks to these computations, some of them novel, we are able to study precisely the behavior of the maximal penalty constant. Finally, we study the median heuristic, a popular tool to set the bandwidth of radial basis function kernels. Fora large sample size, we show that it behaves approximately as the median of a distribution that we describe completely in the setting of kernel two-sample test and kernel change-point detection. More precisely, we show that the median heuristic is asymptotically normal around this value
APA, Harvard, Vancouver, ISO, and other styles
33

Srinivas, Sushma. "DETECTING VULNERABLE PLAQUES WITH MULTIRESOLUTION ANALYSIS." Cleveland State University / OhioLINK, 2011. http://rave.ohiolink.edu/etdc/view?acc_num=csu1326932229.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

GUIHENNEUC, CHANTAL. "Test du rapport des maximums de vraisemblance : - emploi en genetique; - detections de rupture dans les modeles de regression lineaire; application au sida." Paris 11, 1991. http://www.theses.fr/1991PA112350.

Full text
Abstract:
Ce travail se divise en deux parties distinctes de par leurs domaines d'application mais concernent toutes les deux l'etude du test du rapport des vraisemblances: la premiere partie etudie ce test dans deux situations particulieres frequemment rencontrees en genetique. Le test du lodscore en analyse de linkage et un test sequentiel du rapport des vraisemblances; on trouvera une etude precise des niveaux de premiere et deuxieme especes de ce test tel qu'il est employe dans la realite: - le test de modeles emboites mais dans le cas ou le modele restreint se trouve sur la frontiere du modele general; nous montrons qu'il est possible d'apporter des solutions a ce probleme que dans certains cas, principalement quand la vraisemblance reste derivable sous le modele restreint. La deuxieme partie etudie les tests de detections de rupture dans les modeles de regression lineaire. L'etude asymptotique de la loi du rapport des vraisemblances pour ce type de test rencontre un probleme pour les ruptures se situant aux bords de l'intervalle d'observations d'ou l'utilisation d'un test du rapport des vraisemblances ponderees. Cette etude consiste a determiner asymptotiquement la region de rejet du test, a discuter de la notion d'asymptotique, puis en dernier point, a se placer en situation de contiguite. Une application directe est faite sur le probleme du suivi de 450 patients hiv positifs ou la rupture est le passage en sida avere
APA, Harvard, Vancouver, ISO, and other styles
35

Potin, Delphine. "Traitement des signaux pour la detection de mines antipersonnel." Ecole Centrale de Lille, 2007. http://www.theses.fr/2007ECLI0003.

Full text
Abstract:
La multiplication des conflits de part le monde a eu pour principale conséquence de disséminer des millions de mines antipersonnel qui mettent en danger la vie des populations et constituent une entrave au développement économique des régions concernées. Dans ce mémoire, de nouvelles techniques de traitement du signal sont proposées pour la détection des mines antipersonnel dans les données enregistrées par un GPR (Ground Penetrating Radar). Deux filtres numériques sont tout d’abord conçus pour réduire le clutter, qui constitue un ensemble de phénomènes indésirables, dans les données de type Bscan et Cscan fournies par le GPR. Ces deux types de données représentent respectivement des images de tranches verticales et horizontales du sous-sol. La conception des filtres nécessite une modélisation géométrique du clutter et d'une signature de mine, pour chaque type de données, suivie d’une analyse spectrale permettant de définir le gabarit du filtre idéal. Ensuite, une nouvelle méthode de détection, basée sur une technique de détection de ruptures non paramétrique, est proposée afin de localiser automatiquement les réponses des mines antipersonnel sur des données Bscan. La méthode consiste à rechercher les ruptures spatiales suivant la direction des mesures afin de détecter les positions horizontales des mines et les ruptures suivant l’axe temporel afin de détecter les temps de réponse des mines. Une méthode de détection, basée sur l’extraction de contours fermés, est également proposée pour localiser les réponses des mines sur des données Cscan. Les performances de ces deux méthodes de détection sont évaluées par le calcul de probabilité de détection et de fausses alarmes
The millions of landmines spread out over the planet are not only a humanitarian disaster, they also hinder the social and economic development of the concerned countries. In this thesis, new signal processing methods are proposed for the detection and localization of landmines on data recorded by a GPR (Ground Penetrating Radar). First, two digital filters are designed in order to remove clutter in Bscan and Cscan data delivered by GPRs. These two kinds of data are respectively interpreted as vertical and horizontal slices of the ground. In order to design the digital filters, a frequency analysis of a clutter geometrical model and a geometrical model of a signal coming from a landmine is led for each type of data. Second, a new detection method, based on a nonparametric abrupt changes detection technique, is proposed in order to detect and localize landmines in Bscan data. The method consists in searching spatial abrupt changes in order to detect the possible horizontal landmines position and in searching time abrupt changes in order to detect the buried objects response times. A detection method, based on contours extraction, is also proposed in order to automatically localize landmines in Cscan data. The performances of these two landmines detection method are studied in terms of detection probability and false alarm probability
APA, Harvard, Vancouver, ISO, and other styles
36

Maroney, Roy Thomas. "Missed opportunities for the detection of abdominal aortic aneurysms : a retrospective study of eighteen patients presenting with a ruptured or acute symptomatic abdominal aortic aneurysm." Master's thesis, University of Cape Town, 1997. http://hdl.handle.net/11427/25566.

Full text
Abstract:
A ruptured abdominal aortic aneurysm (AAA) has a mortality of 80 percent. The majority of these cases present as medical emergencies, with 50 percent dying before they reach hospital. Twenty percent are not operated on because of an incorrect diagnosis and of the surviving 30 percent, there will be a peri-operative mortality of 40 percent. Thus only 20 percent of patients survive this condition. It is important to state that the long-term survival reported for patients undergoing AAA surgery approximates that of age-matched populations. This is in contrast to patients undergoing a coronary bypass procedure, where the long-term survival is affected by factors such as hypertension, angina and peripheral vascular disease. If the condition is diagnosed electively, the mortality rate is reduced to less than 5 percent. The researcher obtained the records of 18 patients who had presented to the vascular service at the New Kingsbury Hospital with a diagnosis of a ruptured or acute symptomatic AAA. He interviewed the referring family doctor and also obtained information from the case records to determine whether there were missed opportunities for the detection of such aneurysms. The results of the research showed that 12 general practitioners (GP's) out of a group of 13, were unaware that abdominal ultrasound is a highly specific and sensitive method for detecting AAA's. Only one of the group of 13 GP's regularly screens for AAA. The diagnosis of AAA was missed in 12 of the 18 patients. In this series the mean diameter of the aorta was 7,67 cm which is considered to be easily palpable. Five of the patients were referred to specialists for incidental reasons and they all failed to detect the AAA. The majority of patients with AAA's have at least 2 associated risk factors. The patients consulted their GP at least 5 times over the 24 month period. The GP's are not aware of the different modes of presentation, associated risk factors nor the value of screening for AAA's. Ten of the group of 13 GP's profess to engage in some form of Continuing Medical Education (CME). I have suggested a few guidelines to encourage family physicians to screen for AAA in all males over the age of 60, especially if they have risk factors, such as hypertension, a current or former cigarette smoker, coronary artery disease, peripheral vascular disease and a family history of AAA. The examination should include a thorough abdominal palpation and referral for an abdominal ultrasound examination to obtain the precise diameter of the AAA as treatment depends on the size of the AAA.
APA, Harvard, Vancouver, ISO, and other styles
37

Bossavy, Arthur. "Caractérisation et prédiction probabiliste des variations brusques et importantes de la production éolienne." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00803234.

Full text
Abstract:
L'énergie éolienne est aujourd'hui la source d'énergie renouvelable en plus forte expansion. Le caractère variable et partiellement contrôlable de sa production complexifie la gestion du système électrique. L'utilisation dans divers processus de décision, de prédictions du niveau de production à des horizons de 2-3 jours, permet une meilleure intégration de cette ressource. Certaines situations donnent néanmoins lieu à des performances de prédiction insatisfaisantes. Des erreurs dans la prédiction de l'instant d'apparition de variations brusques et importantes de la production, peuvent être responsables d'importants déséquilibres énergétiques, et avoir un impact négatif sur la gestion du système électrique. L'objectif de cette thèse est de proposer des approches permettant d'une part de caractériser ces variations, et d'autre part de prédire et d'estimer l'incertitude dans l'instant de leur apparition. Dans un premier temps, nous étudions différentes formes de caractérisation de ces variations. Nous proposons un modèle de rupture permettant de représenter le caractère aléatoire dans la proximité des ruptures d'un signal, tout en tenant compte des aspects borné et non-stationnaire du processus de production. A partir de simulations issues de ce modèle, nous réalisons une étude paramétrique destinée à évaluer et comparer les performances de différents filtres et approches multi-échelles de détection. Dans un deuxième temps, nous proposons une approche de prédiction probabiliste de l'instant d'apparition d'une rupture, reposant sur l'utilisation de prévisions météorologiques ensemblistes. Leur conversion en puissance fournit différents scénarii de la production, à partir desquels sont agrégées les prédictions de l'instant d'apparition d'une rupture. L'incertitude associée est représentée à l'aide d'intervalles de confiance temporels et de probabilités estimées conditionnellement. Nous évaluons la fiabilité et la finesse de ces estimations sur la base de mesures de production provenant de différentes fermes éoliennes.
APA, Harvard, Vancouver, ISO, and other styles
38

Tu, Yi-shan, and 杜怡珊. "Detection of Diaphragmatic Rupture using Computed Tomography Images." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/60630666095198382830.

Full text
Abstract:
碩士
國立中正大學
資訊工程所
96
There is a high possibility that injuries to the diaphragm occur after penetrating or blunt trauma. With the passing of the time, there will be a progressive damage. Complex diaphragmatic rupture will lead to higher morbidity and mortality, thus early diagnosis and treatment is extremely important. In most cases, diaphragmatic injuries are not seen in isolation but with some other concurrent injuries. Thus doctors often pay more attention on coronal view of the computed tomography images and miss the examination of the diaphragm. In this paper, a detection method is developed to examine the diaphragmatic rupture using the computed tomography images. In this diaphragm detection system, the image resolution is reduced to decrease the computation time of detections. Then, two kinds of detections are used to detect different regions in computed tomography images. One is lung air boundary detection; the feature that the intensities of liquid and organs are different to the intensities of air is utilized to detect the border between air and liquid. The principle that the boundary should be continued is used to improve the correctness of the detected result. The other is the diaphragm detection; the diaphragm dome has different intensity with other tissues on coronal view of the computed tomography images, and the Sobel operator is used to enhance the diaphragm dome. The characteristic of diaphragm shape is also used as a guided rule for the diaphragm detection. Finally, the results of lung air boundary detection and diaphragm detection are compared to find out whether the diaphragm is injured or not. In our experiments, there are total 18 cases examined, the detection accuracy rate is up to 95%. The results show that the proposed system almost could detect the diaphragmatic rupture out in the images with a good accuracy.
APA, Harvard, Vancouver, ISO, and other styles
39

Hsu, Cheng-I., and 許正宜. "Thermographic Detection of Creep-rupture Tubes Using a CCD Camera." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/58148628057755008207.

Full text
Abstract:
碩士
國立彰化師範大學
電機工程學系
96
This study aims to use a low-cost camera to detect abnormal high-temperature areas on tubes before creep rupture occurs. Based on image gray level, the infrared energy radiated by high surface temperature can be detected, so heat distribution difference caused by tube flaws can be revealed and the temperature can also be calculated. Gray level influenced by external illumination or surface color can be corrected through image processing. Thus, through contactless full-range temperature detection, creep rupture of tubes under high temperature can be identified and the surface temperature can also be measured. Keywords: creep-rupture, charged coupled device, infrared, thermographic.
APA, Harvard, Vancouver, ISO, and other styles
40

Pham, Tuan A. "Early detection and treatment strategies for vulnerable atherosclerotic plaques." Thesis, 2015. https://hdl.handle.net/2144/15207.

Full text
Abstract:
Atherosclerotic plaque ruptures have been determined as the most common underlying cause of acute coronary syndromes and stroke. Currently, the standard of care for plaque rupture risk is based on the amount of luminal stenosis presented in a particular vessel; however, X-ray angiographic studies have shown that plaques at risk of rupture generally show <50% luminal narrowing. These findings explicate the need for other, more accurate methods of identifying problem lesions prior to the rupture event. Unfortunately, the study of thrombotic events and vulnerable plaque lesions in humans is difficult due to the spontaneity of rupture and the lengthy time course of disease progression. To further the understanding of plaque rupture risk in light of vulnerability detection, a rabbit model of atherothrombosis was used in conjunction with magnetic resonance imaging (MRI). MRI has been validated as a suitable imaging modality for in vivo, non-invasive detection of atherosclerosis and has provided quantitative predictors of plaques at risk of rupture. Additionally, the rabbit model has been shown, histologically, to present 6 of the 8 human plaque types classified by the American Heart Association. The first portion of this dissertation work focuses on using MRI to serially image rabbits undergoing the atherosclerotic protocol in order to assess rupture risk at the various time points. Previous work has determined that an increase in the vessel remodeling ratio (which hides a large plaque in the vessel wall) and contrast uptake (which indicates inflammation) are both characteristics of increased rupture risk. By obtaining these parameters at various time points in the disease progression, it was possible to determine when a certain plaque displays a heightened risk of rupture. The second portion of this work tested the efficacy of a pro-resolving molecule, lipoxin (an endogenous molecule), in reducing atherosclerotic disease state, specifically rupture with a luminal thrombus. Using chronic administration of this molecule in the same rabbit model of atherosclerosis yielded a faint reduction in atherosclerotic severity based on the parameters of decreased vessel lipid content and decreased thrombotic events presented in the treated group.
APA, Harvard, Vancouver, ISO, and other styles
41

Huang, Bin Feng, and 黃斌峰. ""Say the Unsaid, Repair the Fractures:" On the Narrative Ruptures in Edgar Allan Poe's Detective Stories." Thesis, 2016. http://ndltd.ncl.edu.tw/handle/07856966362641133013.

Full text
Abstract:
博士
國立政治大學
英國語文學系
104
In this dissertation, Pierre Macherey’s theorizations will be employed for an in-depth analysis of the narrative ruptures in Edgar Allan Poe’s detective stories. First, in Chapter Two the definition of the detective novel is clarified: a detective novel refers to a fictional story that deals thematically with a crime as well as how it is solved by a detective or someone like a detective. By this definition, we can conclude that Poe didn’t write the first detective story but is the progenitor of the detective fiction genre. Chapter Three deals with Macherey’s theorizations. Macherey thinks that the author must have left something unsaid in his text. The unsaid is responsible for the multiplicity of the voices in the text, enabling the text to exist. When Macherey’s said/unsaid model is examined along with Althusser’s, Eagleton’s and Jameson’s theorizations about ideology, the nature of this interrelationship can be characterized: the text can’t access history directly; it has to go through the ideology. The text only reflects the ideology inaccurately; if the latter is put in the former, the former’s unsaid will emerge. In addition, in A Theory of Literary Productions, Macherey has mentioned that the unsaid in the text is what a text could have been, or a potentiality. Framed with Deleuze’s concept of virtual and actual, it can lead to this conclusion: Macherey’s so-called unsaid or narrative rupture is Deleuze’s virtual(ity), or a repository of potentialities. Once the unsaid is said or the narrative rupture is repaired, a potentiality will be tapped, or a possible case scenario of the text will be enacted. Based on the above, I postulate hypothesis: Poe’s detective stories have three narrative ruptures pertaining to the story settings, the characterization of the detective, and the logic reasoning. And in classical, hard-boiled, and postmodern detective fiction, the three narrative ruptures have been repaired in three different ways. Thus, three possible case scenarios of Poe’s detective stories have been enacted. Chapter Four deals with the relationship between the settings and the themes in Poe’s detective stories. Poe’s detective stories were composed in the 1840’s, when the Americans were convinced of the U.S.’s prosperity (the dominant ideology). However, industrialization and urbanization also brought about various social problems. In Poe’s detective stories, the city is portrayed as a dark place (the internal contradiction of the dominant ideology), but it has no bearing on the action of the story. It is clearly relevant to Poe’s upbringing (the authorial position). So this is what Poe has left unsaid: in a detective story its setting should be related to its theme. Several significant classical detective novelists, such as Arthur Conan Doyle and Agatha Christie, tend to base the settings of their stories on the general ideology then, and view the crimes in their stories as the menaces to their stable society. Hard-boiled detective fiction foregrounds social realism, so the setting is usually a decaying city, which is also s seedbed of criminal activities. As for postmodern detective fiction, the setting is often a labyrinthine world, where a trapped detective’s investigation ends up stranded. Chapter Five deals with the characterization of the detective. The dominant ideology in Poe’s era was the Enlightenment thinking, which emphasizes reason. However, there was also an undercurrent of unreason (the internal contradiction of the dominant ideology), and Poe takes an ambivalent attitude towards reason (the author’s position). In “The Murders in the Rue Morgue” and “The Mystery of Marie Rogêt,” the detective, Dupin, is a flat character, an embodiment of reason. However, in “The Purloined Letter,” the characterization of Dupin isn’t so differentiated from that of Minister D, the villain. Here, this is what Poe has left unsaid: the detective/villain dichotomy has been dismantled. However, throughout the three developmental stages of the detective fiction genre, this narrative rupture has never been repaired. Classical detectives seem to represent law or reason, but they often break the law; hard-boiled detectives are usually complex characters, or come from the minority groups in society. They often overstep the legal boundary. As for postmodern detectives, there’s no telling them from the villains. Chapter Six deals with the correlation between the ratiocinative pattern and the truth. First, ratiocination is a product of the Enlightenment; it is deeply rooted in the dominant ideology. In Poe’s three detective stories as well as “The Gold-Bug,” the ratiocinative pattern is a means to the truth. However, a close look at Dupin’s reasoning processes will reveal that it is imperfect (the internal contradiction of the dominant ideology). Here, what Poe has left unsaid is: the ratiocinative pattern doesn’t necessarily lead to the truth. This narrative rupture has never been repaired in classical detective fiction. The top priority in this subgenre is the narrative structure; it focuses on how the detective has reasoned out the truth. There were even rules dictating how classical detective stories should be created. Eventually, the detective fiction genre ended up bottlenecked. (In A Theory of Literary Production, Macherey speaks about his distrust in structure, as if he had foreseen the quagmire of the detective fiction genre). The narrative rupture has finally been repaired in hard-boiled detective fiction: hard-boiled detectives often solve their cases with an active investigation, pushing ratiocination to a secondary position. In postmodern detective fiction, the unsaid has been said even more: a postmodern detective’s ratiocination is often fruitless, and the truth is not found. Chapter Six also touches on the “truth issue,” namely, the issue of whether the case should be solved in a detective story. First, in both classical and hard-boiled detective fiction, the truth always comes out in the end. In addition, solving a mystery is an inherent attribute of the detective fiction genre. It is precisely what makes reading detective fiction fun, and it is also what puts detective fiction in the popular literature. What’s more, the three subgenres can be combined sometimes, and not all postmodern detective stories have done away with the discovery of the truth. Considering all these above, we can draw this conclusion: finding the truth is the final defense line in keeping the detective fiction genre within the popular literature. Those postmodern detective stories where the truth is lost should be few and far between, and they will end up in the serious literature. Chapter Seven sums up the findings in this dissertation, listing how the narrative ruptures have been (un)repaired. And the developmental route of the detective fiction genre is also retraced: it moves from GI, to social realism, and to AI.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography