Dissertationen zum Thema „Filtre intervalle“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Filtre intervalle.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-33 Dissertationen für die Forschung zum Thema "Filtre intervalle" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Mohammedi, Irryhl. „Contribution à l’estimation robuste par intervalle des systèmes multivariables LTI et LPV : Application aux systèmes aérospatiaux“. Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0142.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire de thèse visent à développer de nouvelles approches basées sur une nouvelle classe particulière d’estimateurs d´état : les filtres dits par intervalles. Tout comme la classe des observateurs intervalles, l’objectif est d’estimer les bornes supérieures et inférieures des états d’un système, à chaque instant de temps. L’approche proposée repose sur la théorie des systèmes monotones et sur la connaissance a priori du domaine d’appartenance, supposé borné, des incertitudes de modèle et des entrées exogènes (perturbations, bruit de mesure, etc). L’élément clé de l’approche proposée repose sur l’utilisation de filtre d’ordre quelconque, sans structure a priori fixée, plutôt qu’une structure basée sur l’observateur (reposant uniquement sur une structure dynamique du système étudié). La synthèse des paramètres du filtre repose sur la résolution d’un problème d’optimisation sous contraintes de type inégalités matricielles linéaires et bilinéaires (LMI et BMI) permettant de garantir simultanément les conditions d’existence du filtre ainsi qu’un niveau de performance, soit dans un contexte énergie, soit dans un contexte amplitude ou soit dans un contexte mixte énergie/amplitude. La méthodologie de synthèse proposée est illustrée sur un exemple académique et est comparée avec d’autres méthodes existantes dans la littérature. Enfin, la méthodologie est appliquée au cas du contrôle d’attitude et d’orbite d’un satellite, sous des conditions de simulations réalistes
The work of this thesis aims at developing new approaches based on a new particular class of state estimators, the so-called interval or ensemble filters.Like the class of interval observers, the objective is to estimate, in a guaranteed way, the upper and lower bounds of the states of a system, at each time instant.The proposed approach is based on the theory of monotonic systems and on the knowledge of the domain of membership, supposedly bounded, of the uncertainties of the system, such as disturbances, noise and bias of sensors, etc.The key element of the proposed approach is to use a filter structure advantage, rather than an observer-based structure (relying only on a dynamic structure of the studied system).The synthesis of the filter parameters is based on the resolution of a constrained optimization problem of linear and bilinear matrix inequalities (LMI and BMI) allowing to guarantee simultaneously the existence conditions of the filter as well as a performance level, either in an energy context for LTI systems, or in an amplitude context or in a mixed energy/amplitude context for LPV systemsThe proposed synthesis methodology is illustrated on an academic example and is compared with other existing methods in the literature. Finally, the methodology is applied to the case of attitude and acceleration control of a satellite, under realistic simulation conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tran, Tuan Anh. „Cadre unifié pour la modélisation des incertitudes statistiques et bornées : application à la détection et isolation de défauts dans les systèmes dynamiques incertains par estimation“. Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30292/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'estimation d'état des systèmes dynamiques à temps discret dans le contexte de l'intégration d'incertitudes statistiques et à erreurs bornées. Partant du filtre de Kalman intervalle (IKF) et de son amélioration (iIKF), nous proposons un algorithme de filtrage pour des systèmes linéaires dont les bruits sont gaussiens incertains, c'est-à-dire de moyenne et matrice de covariance définies par leur appartenance à des intervalles. Ce nouveau filtre de Kalman intervalle (UBIKF) repose sur la recherche d'une matrice de gain ponctuelle minimisant une borne majorante de l'ensemble des matrices de covariance de l'erreur d'estimation en respectant les bornes des incertitudes paramétriques. Un encadrement de tousles estimés possibles est ensuite déterminé en utilisant l'analyse par intervalles. Le filtre UBIKF permet de réduire à la fois la complexité calculatoire de l'inversion ensembliste des matrices intervalles présent dans le filtre iIKF et le conservatisme des estimations. Nous abordons ensuite différents cadres permettant de représenter des connaissances incomplètes ou imprécises, y compris les fonctions de répartition, la théorie de possibilité et la théorie des fonctions de croyance. Grâce à cette dernière, un modèle sous forme d'une fonction de masse pour une distribution gaussienne multivariée incertaine est proposé. Un filtrage particulaire ensembliste basé sur cette théorie est développé pour des systèmes dynamiques non linéaires dans lesquels les bruits sur la dynamique sont bornés et les erreurs de mesure sont modélisées par une fonction de masse gaussienne incertaine. Enfin, le filtre UBIKF est utilisé pour la détection et l'isolation de défauts en mettant en œuvre le schéma d'observateurs généralisé et l'analyse structurelle. Au travers de différents exemples, la capacité d'isolation de défauts capteurs/actionneurs de cet outil est illustrée et comparée à d'autre approches
This thesis deals with state estimation in discrete-time dynamic systems in the context of the integration of statistical and bounded error uncertainties. Motivated by the drawbacks of the interval Kalman filter (IKF) and its improvement (iIKF), we propose a filtering algorithm for linear systems subject to uncertain Gaussian noises, i.e. with the mean and covariance matrix defined by their membership to intervals. This new interval Kalman filter (UBIKF) relies on finding a punctual gain matrix minimizing an upper bound of the set of estimation error covariance matrices by respecting the bounds of the parametric uncertainties. An envelope containing all possible estimates is then determined using interval analysis. The UBIKF reduces not only the computational complexity of the set inversion of the matrices intervals appearing in the iIKF, but also the conservatism of the estimates. We then discuss different frameworks for representing incomplete or imprecise knowledge, including the cumulative distribution functions, the possibility theory and the theory of belief functions. Thanks to the last, a model in the form of a mass function for an uncertain multivariate Gaussian distribution is proposed. A box particle filter based on this theory is developed for non-linear dynamic systems in which the process noises are bounded and the measurement errors are represented by an uncertain Gaussian mass function. Finally, the UBIKF is applied to fault detection and isolation by implementing the generalized observer scheme and structural analysis. Through various examples, the capacity for detecting and isolating sensor/actuator faults of this tool is illustrated and compared to other approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Pepy, Romain. „Vers une planification robuste et sûre pour les systèmes autonomes“. Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00845477.

Der volle Inhalt der Quelle
Annotation:
De nombreux outils existent pour résoudre les problèmes de planification sous contraintes. On peut les regrouper en deux classes principales. Les plus anciens planificateurs utilisent une discrétisation préalable de l'espace d'état. Les plus récents, les planificateurs à échantillonnage, permettent une exploration plus efficace. Ces planificateurs sont utilisés dans de nombreux domaines, comme la chimie, la biologie, la robotique, l'automatique ou encore l'intelligence artificielle. La contribution majeure de nos travaux est d'apporter une réponse au problème de planification de trajectoires en présence d'incertitudes en associant une technique de planification moderne, permettant une exploration rapide de l'espace d'état à des méthodes de localisation permettant de caractériser l'incertitude sur l'état du système à un instant donné. Deux approches ont été suivies. Dans la première, le planificateur utilise une représentation probabiliste de l'état du système à un instant donné, par une densité de probabilité gaussienne. La propagation des erreurs est effectuée en utilisant un filtre de Kalman étendu. Dans la deuxième approche, nous englobons dans un ensemble calculable les états que peut prendre le système à un instant donné compte tenu de bornes sur les erreurs commises. Contrairement à l'approche probabiliste précédente, cette approche permet de fournir une garantie sur la sûreté du système, à condition bien sûr que les hypothèses sur les bruits d'états qui la fondent soient satisfaites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nicola, Jérémy. „Robust, precise and reliable simultaneous localization and mapping for and underwater robot. Comparison and combination of probabilistic and set-membership methods for the SLAM problem“. Thesis, Brest, 2017. http://www.theses.fr/2017BRES0066/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse on s'intéresse au problème de la localisation d'un robot sous-marin et de la cartographie en simultané d'un jeu de balises acoustiques installées sur le fond marin, en utilisant un distance-mètre acoustique et une centrale inertielle. Nous nous focalisons sur les deux approches principales utilisées pour résoudre ce type de problème: le filtrage de Kalman et le filtrage ensembliste basé sur l'analyse par intervalles. Le filtre de Kalman est optimal quand les équations d'état du robot sont linéaires et les bruits sont additifs, Gaussiens. Le filtrage par intervalles ne modélise pas les incertitudes dans un cadre probabiliste, et ne fait qu'une seule hypothèse sur leur nature: elles sont bornées. De plus, l'approche utilisant les intervalles permet la propagation rigoureuse des incertitudes, même quand les équations sont non linéaires. Cela résulte en une estimation hautement fiable, au prix d'une précision réduite. Nous montrons que dans un contexte sous-marin, quand le robot est équipé avec une centrale inertielle de haute précision, une partie des équations du SLAM peut raisonnablement être considérée comme linéaire avec un bruit Gaussien additif, en faisant le terrain de jeu idéal d'un filtre de Kalman. De l'autre côté, les équations liées aux observations du distance-mètre acoustique sont bien plus problématiques: le système n'est pas observable, les équations sont non linéaires, et les outliers sont fréquents. Ces conditions sont idéales pour une approche à erreur bornées basée sur l'analyse par intervalles. En prenant avantage des propriétés des bruits Gaussiens, cette thèse réconcilie le traitement probabiliste et ensembliste des incertitudes pour les systèmes aussi bien linéaires que non linéaires sujets à des bruits Gaussiens additifs. En raisonnant de manière géométrique, nous sommes capables d'exprimer la partie des équations du filtre de Kalman modélisant la dynamique du véhicule dans un cadre ensembliste. De la même manière, un traitement plus rigoureux et précis des incertitudes est décrit pour la partie des équations du filtre de Kalman liée aux mesures de distances. Ces outils peuvent ensuite être combinés pour obtenir un algorithme de SLAM qui est fiable, précis et robuste. Certaines des méthodes développées dans cette thèse sont illustrées sur des données réelles
In this thesis, we work on the problem of simultaneously localizing an underwater robot while mapping a set of acoustic beacons lying on the seafloor, using an acoustic range-meter and an inertial navigation system. We focus on the two main approaches classically used to solve this type of problem: Kalman filtering and set-membership filtering using interval analysis. The Kalman filter is optimal when the state equations of the robot are linear, and the noises are additive, white and Gaussian. The interval-based filter do not model uncertainties in a probabilistic framework, and makes only one assumption about their nature: they are bounded. Moreover, the interval-based approach allows to rigorously propagate the uncertainties, even when the equations are non-linear. This results in a high reliability in the set estimate, at the cost of a reduced precision.We show that in a subsea context, when the robot is equipped with a high precision inertial navigation system, a part of the SLAM equations can reasonably be seen as linear with additive Gaussian noise, making it the ideal playground of a Kalman filter. On the other hand, the equations related to the acoustic range-meter are much more problematic: the system is not observable, the equations are non-linear, and the outliers are frequent. These conditions are ideal for a set-based approach using interval analysis.By taking advantage of the properties of Gaussian noises, this thesis reconciles the probabilistic and set-membership processing of uncertainties for both linear and non-linear systems with additive Gaussian noises. By reasoning geometrically, we are able to express the part of the Kalman filter equations linked to the dynamics of the vehicle in a set-membership context. In the same way, a more rigorous and precise treatment of uncertainties is described for the part of the Kalman filter linked to the range-measurements. These two tools can then be combined to obtain a SLAM algorithm that is reliable, precise and robust. Some of the methods developed during this thesis are demonstrated on real data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Akhbari, Mahsa. „Analyse des intervalles ECG inter- et intra-battement sur des modèles d'espace d'état et de Markov cachés“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT026.

Der volle Inhalt der Quelle
Annotation:
Les maladies cardiovasculaires sont l'une des principales causes de mortalité chez l'homme. Une façon de diagnostiquer des maladies cardiaques et des anomalies est le traitement de signaux cardiaques tels que le ECG. Dans beaucoup de ces traitements, des caractéristiques inter-battements et intra-battements de signaux ECG doivent être extraites. Ces caractéristiques comprennent les points de repère des ondes de l’ECG (leur début, leur fin et leur point de pic), les intervalles significatifs et les segments qui peuvent être définis pour le signal ECG. L'extraction des points de référence de l'ECG consiste à identifier l'emplacement du pic, de début et de la fin de l'onde P, du complexe QRS et de l'onde T. Ces points véhiculent des informations cliniquement utiles, mais la segmentation precise de chaque battement de l'ECG est une tâche difficile, même pour les cardiologues expérimentés.Dans cette thèse, nous utilisons un cadre bayésien basé sur le modèle dynamique d'ECG proposé par McSharry. Depuis ce modèle s'appuyant sur la morphologie des ECG, il peut être utile pour la segmentation et l'analyse d'intervalles d'ECG. Afin de tenir compte de la séquentialité des ondes P, QRS et T, nous utiliserons également l'approche de Markov et des modèles de Markov cachés (MMC). En bref dans cette thèse, nous utilisons un modèle dynamique (filtre de Kalman), un modèle séquentiel (MMC) et leur combinaison (commutation de filtres de Kalman (SKF)). Nous proposons trois méthodes à base de filtres de Kalman, une méthode basée sur les MMC et un procédé à base de SKF. Nous utilisons les méthodes proposées pour l'extraction de points de référence et l'analyse d'intervalles des ECG. Le méthodes basées sur le filtrage de Kalman sont également utilisés pour le débruitage d'ECG, la détection de l'alternation de l'onde T, et la détection du pic R de l'ECG du foetus.Pour évaluer les performances des méthodes proposées pour l'extraction des points de référence de l'ECG, nous utilisons la base de données "Physionet QT", et une base de données "Swine" qui comprennent ECG annotations de signaux par les médecins. Pour le débruitage d'ECG, nous utilisons les bases de données "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" et "MIT-BIH noise stress test". La base de données "TWA Challenge 2008 database" est utilisée pour la détection de l'alternation de l'onde T. Enfin, la base de données "Physionet Computing in Cardiology Challenge 2013 database" est utilisée pour la détection du pic R de l'ECG du feotus. Pour l'extraction de points de reference, la performance des méthodes proposées sont évaluées en termes de moyenne, écart-type et l'erreur quadratique moyenne (EQM). Nous calculons aussi la sensibilité des méthodes. Pour le débruitage d'ECG, nous comparons les méthodes en terme d'amélioration du rapport signal à bruit
Cardiovascular diseases are one of the major causes of mortality in humans. One way to diagnose heart diseases and abnormalities is processing of cardiac signals such as ECG. In many of these processes, inter-beat and intra-beat features of ECG signal must be extracted. These features include peak, onset and offset of ECG waves, meaningful intervals and segments that can be defined for ECG signal. ECG fiducial point (FP) extraction refers to identifying the location of the peak as well as the onset and offset of the P-wave, QRS complex and T-wave which convey clinically useful information. However, the precise segmentation of each ECG beat is a difficult task, even for experienced cardiologists.In this thesis, we use a Bayesian framework based on the McSharry ECG dynamical model for ECG FP extraction. Since this framework is based on the morphology of ECG waves, it can be useful for ECG segmentation and interval analysis. In order to consider the time sequential property of ECG signal, we also use the Markovian approach and hidden Markov models (HMM). In brief in this thesis, we use dynamic model (Kalman filter), sequential model (HMM) and their combination (switching Kalman filter (SKF)). We propose three Kalman-based methods, an HMM-based method and a SKF-based method. We use the proposed methods for ECG FP extraction and ECG interval analysis. Kalman-based methods are also used for ECG denoising, T-wave alternans (TWA) detection and fetal ECG R-peak detection.To evaluate the performance of proposed methods for ECG FP extraction, we use the "Physionet QT database", and a "Swine ECG database" that include ECG signal annotations by physicians. For ECG denoising, we use the "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" and "MIT-BIH noise stress test" databases. "TWA Challenge 2008 database" is used for TWA detection and finally, "Physionet Computing in Cardiology Challenge 2013 database" is used for R-peak detection of fetal ECG. In ECG FP extraction, the performance of the proposed methods are evaluated in terms of mean, standard deviation and root mean square of error. We also calculate the Sensitivity for methods. For ECG denoising, we compare methods in their obtained SNR improvement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dandach, Hoda. „Prédiction de l'espace navigable par l'approche ensembliste pour un véhicule routier“. Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1892/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse porte sur le calcul d’un espace d’état navigable d’un véhicule routier, ainsi que sur l’observation et l’estimation de son état, à l’aide des méthodes ensemblistes par intervalles. Dans la première partie de la thèse, nous nous intéressons aux problèmes d’estimation d’état relevant de la dynamique du véhicule. Classiquement, l’estimation se fait en utilisant le filtrage de Kalman pour des problèmes d’estimation linéaires ou le filtrage de Kalman étendu pour les cas non-linéaires. Ces filtres supposent que les erreurs sur le modèle et sur les mesures sont blanches et gaussiennes. D’autre part, les filtres particulaires (PF), aussi connus comme Méthodes de Monte-Carlo séquentielles, constituent souvent une alternative aux filtres de Kalman étendus. Par contre, les performances des filtres PF dépendent surtout du nombre de particules utilisées pour l’estimation, et sont souvent affectées par les bruits de mesures aberrants. Ainsi, l’objectif principal de cette partie de travail est d’utiliser une des méthodes à erreurs bornées, qui est le filtrage par boites particulaires (Box Particle Filter (BPF)), pour répondre à ces problèmes. Cette méthode généralise le filtrage particulaire à l’aide des boites remplaçant les particules. A l’aide de l’analyse par intervalles, l’estimation de certains variables fortement reliées à la dynamique du véhicule comme le transfert de charge latérale, le roulis et la vitesse de roulis est donnée, à chaque instant, sous forme d’un intervalle contenant la vraie valeur simulée. Dans la deuxième partie de la thèse, une nouvelle formalisation du problème de calcul de l’espace navigable de l’état d’un véhicule routier est présentée. Un algorithme de résolution est construit, basé sur le principe de l’inversion ensembliste par intervalles et sur la satisfaction des contraintes. Nous cherchons à caractériser l’ensemble des valeurs de la vitesse longitudinale et la dérive au centre de gravité qui correspondent à un comportement stable du véhicule : pas de renversement ni dérapage. Pour décrire le risque de renversement, nous avons utilisé l’indicateur de transfert de charge latéral (LTR). Pour décrire le risque de dérapage, nous avons utilisé les dérives des roues. Toutes les variables sont liées géométriquement avec le vecteur d’état choisi. En utilisant ces relations, l’inversion ensembliste par intervalles est appliquée afin de trouver l’espace navigable de l’état tel que ces deux risques sont évités. L’algorithme Sivia est implémenté, approximant ainsi cet espace. Une vitesse maximale autorisée au véhicule est déduite. Elle est associée à un angle de braquage donné sur une trajectoire connue
In this thesis, we aim to characterize a vehicle stable state domain, as well as vehicle state estimation, using interval methods.In the first part of this thesis, we are interested in the intelligent vehicle state estimation.The Bayesian approach is one of the most popular and used approaches of estimation. It is based on the calculated probability of the density function which is neither evident nor simple all the time, conditioned on the available measurements.Among the Bayesian approaches, we know the Kalman filter (KF) in its three forms(linear, non linear and unscented). All the Kalman filters assume unimodal Gaussian state and measurement distributions. As an alternative, the Particle Filter(PF) is a sequential Monte Carlo Bayesian estimator. Contrary to Kalman filter,PF is supposed to give more information about the posterior even when it has a multimodal shape or when the noise follows non-Gaussian distribution. However,the PF is very sensitive to the imprecision due by bias or noise, and its efficiency and accuracy depend mainly on the number of propagated particles which can easily and significantly increase as a result of this imprecision. In this part, we introduce the interval framework to deal with the problems of the non-white biased measurements and bounded errors. We use the Box Particle Filter (BPF), an estimator based simultaneously on the interval analysis and on the particle approach. We aim to estimate some immeasurable state from the vehicle dynamics using the bounded error Box Particle algorithm, like the roll angle and the lateral load transfer, which are two dynamic states of the vehicle. BPF gives a guaranteed estimation of the state vector. The box encountering the estimation is guaranteed to encounter thereal value of the estimated variable as well.In the second part of this thesis, we aim to compute a vehicle stable state domain.An algorithm, based on the set inversion principle and the constraints satisfaction,is used. Considering the longitudinal velocity and the side slip angle at the vehicle centre of gravity, we characterize the set of these two state variables that corresponds to a stable behaviour : neither roll-over nor sliding. Concerning the roll-over risk,we use the lateral transfer ratio LTR as a risk indicator. Concerning the sliding risk, we use the wheels side slip angles. All these variables are related geometrically to the longitudinal velocity and the side slip angle at the centre of gravity. Using these constraints, the set inversion principle is applied in order to define the set ofthe state variables where the two mentioned risks are avoided. The algorithm of Sivia is implemented. Knowing the vehicle trajectory, a maximal allowed velocityon every part of this trajectory is deduced
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Avcu, Soner. „Radar Pulse Repetition Interval Tracking With Kalman Filter“. Thesis, METU, 2006. http://etd.lib.metu.edu.tr/upload/12607691/index.pdf.

Der volle Inhalt der Quelle
Annotation:
In this thesis, the radar pulse repetition interval (PRI) tracking with Kalman Filter problem is investigated. The most common types of PRIs are constant PRI, step (jittered) PRI, staggered PRI, sinusoidally modulated PRI. This thesis considers the step (this type of PRI agility is called as constant PRI when the jitter on PRI values is eliminated) and staggered PRI cases. Different algorithms have been developed for tracking step and staggered PRIs cases. Some useful simplifications are obtained in the algorithm developed for step PRI sequence. Two different algorithms robust to the effects of missing pulses obtained for staggered PRI sequence are compared according to estimation performances. Both algorithms have two parts: detection of the period part and a Kalman filter model. The advantages and disadvantages of these algorithms are presented. Simulations are implemented in MATLAB.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Gomes, Adriano de Araújo. „Algoritmo das projeções sucessivas para seleção de variáveis em calibração de segunda ordem“. Universidade Federal da Paraíba, 2015. http://tede.biblioteca.ufpb.br:8080/handle/tede/8196.

Der volle Inhalt der Quelle
Annotation:
Submitted by Maike Costa (maiksebas@gmail.com) on 2016-05-12T12:35:36Z No. of bitstreams: 1 arquivo total.pdf: 5933598 bytes, checksum: f90080e0529915a4c5c37308259bee89 (MD5)
Made available in DSpace on 2016-05-12T12:35:36Z (GMT). No. of bitstreams: 1 arquivo total.pdf: 5933598 bytes, checksum: f90080e0529915a4c5c37308259bee89 (MD5) Previous issue date: 2015-06-29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
In this work it was developed a new strategy for intervals selection using the successive projections algorithm (SPA) coupled to N-PLS and U-PLS models, both with residual bilinearização (RBL) as a post-calibration step. The new algorithm coupled to N-PLS/RBL models was evaluated in two cases of studies. The first was simulated data for quantitation of two analytes (A and B) in the presence of a single interfering. On the second study was conducted a quantitation of ofloxacin in water in the presence of interferents (ciprofloxacin and danofloxacin) by means of liquid chromatography with diode array detection (LC-DAD) data modeling. The results were compared to the N-PLS/RBL model and the variables selection with the genetic algorithm (GA-N-PLS/RBL). In the first case of study (simulated data) were observed RMSEP values (x 10-3 in arbitrary units) for the analytes A and B in the order of 6.7 to 47.6; 10.6 to 11.4; and 6.0 to 14.0 for the N-PLS/RBL, Ga-N-PLS/RBL and the proposed method, respectively. On the second case of study (HPLC-DAD data) RMSEP value (mg/L) of 0.72 (N-PLS/RBL); 0.70 (GA-N-PLS/RBL) and 0.64 (iSPA N-PLS/RBL) were obtained. When combined with the U-PLS/RBL, the new algorithm was evaluated in the EEM modeling in the presence of inner filter effect. Simulated data and quantitation of phenylephrine in the presence of acetaminophen in water sample and interferences (ibuprofen and acetylsalicylic acid) were used as a case of studies. The results were compared to the U-PLS/RBL and e twell established method PARAFAC. For simulated data was observed the following RMSEP values (in arbitrary units) 1.584; 0.077 and 0.066 for PARAFAC; U-PLS/RBL and the proposed method, respectively. In the quantitation of phenylephrine the found RMSEP (in μg/L) were of 0.164 (PARAFAC); 0.089 (U-PLS/RBL) and 0.069 (ISPA-U-PLS/RBL). In all cases it was shown that variables selection is a useful tool capable of improving accuracy when compared with the respective global models (model without variables selection) leading to more parsimonious models. It was observed in all cases, that the sensitivity loss promoted by variables selection is compensated by using more selective channels, justifying the obtained RMSEP smaller values. Finally, it was also observed that the models based on variables selection such as the proposed method were free from significant bias at 95% confidence.
Neste trabalho foi desenvolvida uma nova estratégia para seleção de intervalos empregando o algoritmo das projeções sucessivas (SPA) acoplado a modelos N-PLS e U-PLS, ambos com etapa pós-calibração de bilinearização residual (RBL). O novo algoritmo acoplado a modelos N-PLS/RBL, foi avaliado em dois estudos de casos. O primeiro envolvendo dados simulados para quantificação de dois analitos (A e B) na presença de um único interferente. No segundo foi conduzida a quantificação de ofloxacina em água na presença de interferentes (ciprofloxacina e danofloxacina) por meio da modelagem de dados cromatografia liquida com detecção por arranjo de diodos (LC-DAD). Os resultados obtidos foram comparados ao modelo N-PLS/RBL e a seleção de variáveis com o algoritmo genético (GA-N-PLS/RBL). No primeiro estudo de caso (dados simulados) foram observados valores de RMSEP (x 10-3 em unidades arbitrárias) para os analitos A e B da ordem de 6,7 e 47,6; 10,6 e 11,4; 6,0 e 14,0 para o N-PLS/RBL, GA-N-PLS/RBL e o método proposto, respectivamente. No segundo estudo de caso (dados HPLC-DAD) valores de RMSEP (em mg/L) de 0,72 (N-PLS/RBL); 0,70 (GA-N-PLS/RBL) e 0,64 (iSPA-N-PLS/RBL) foram obtidos. Quando combinado com o U-PLS/RBL o novo algoritmo foi avaliado na modelagem de EEM em presença efeito de filtro interno. Dados simulados e a quantificação de fenilefrina na presença de paracetamol em amostras de água e interferentes (Ibuprofeno e ácido acetil salicílico) foram usados como estudos de caso. Os resultados obtidos foram comparados ao modelo U-PLS/RBL e ao bem estabelecido método PARAFAC. Para dados simulados foram observado os seguintes valores de RMSEP (em unidades arbitrarias) 1,584; 0,077 e 0,066 para o PARAFAC; U-PLS/RBL e método proposto, respectivamente. Na quantificação de fenilefrina os RMSEP (em μg/L) encontrados foram de 0,164 (PARAFAC); 0,089 (U-PLS/RBL) e 0,069 (iSPA-U-PLS/RBL). Em todos os casos foi demostrado que seleção de variáveis é uma ferramenta útil capaz de melhorar a acurácia quando comparados aos respectivos modelos globais (modelo sem seleção de variáveis) e tornar os modelos mais parcimoniosos. Foi observado ainda para todos os casos, que a perda de sensibilidade promovida pela seleção de variáveis é compensada pelo uso de canais mais seletivos, justificando os menores valores de RMSEP obtidos. E por fim, foi também observado que os modelos baseados em seleção de variáveis como o método proposto foram isentos de bias significativos a 95% de confiança.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Merlinge, Nicolas. „State estimation and trajectory planning using box particle kernels“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS425/document.

Der volle Inhalt der Quelle
Annotation:
L'autonomie d'un engin aérospatial requière de disposer d'une boucle de navigation-guidage-pilotage efficace et sûre. Cette boucle intègre des filtres estimateurs et des lois de commande qui doivent dans certains cas s'accommoder de non-linéarités sévères et être capables d'exploiter des mesures ambiguës. De nombreuses approches ont été développées à cet effet et parmi celles-ci, les approches particulaires présentent l'avantage de pouvoir traiter de façon unifiée des problèmes dans lesquels les incertitudes d’évolution du système et d’observation peuvent être soumises à des lois statistiques quelconques. Cependant, ces approches ne sont pas exemptes de défauts dont le plus important est celui du coût de calcul élevé. D'autre part, dans certains cas, ces méthodes ne permettent pas non plus de converger vers une solution acceptable. Des adaptations récentes de ces approches, combinant les avantages du particulaire tel que la possibilité d'extraire la recherche d'une solution d'un domaine local de description et la robustesse des approches ensemblistes, ont été à l'origine du travail présenté dans cette thèse.Cette thèse présente le développement d’un algorithme d’estimation d’état, nommé le Box Regularised Particle Filter (BRPF), ainsi qu’un algorithme de commande, le Box Particle Control (BPC). Ces algorithmes se basent tous deux sur l’utilisation de mixtures de noyaux bornés par des boites (i.e., des vecteurs d’intervalles) pour décrire l’état du système sous la forme d’une densité de probabilité multimodale. Cette modélisation permet un meilleur recouvrement de l'espace d'état et apporte une meilleure cohérence entre la prédite et la vraisemblance. L’hypothèse est faite que les incertitudes incriminées sont bornées. L'exemple d'application choisi est la navigation par corrélation de terrain qui constitue une application exigeante en termes d'estimation d'état.Pour traiter des problèmes d’estimation ambiguë, c’est-à-dire lorsqu’une valeur de mesure peut correspondre à plusieurs valeurs possibles de l’état, le Box Regularised Particle Filter (BRPF) est introduit. Le BRPF est une évolution de l’algorithme de Box Particle Filter (BPF) et est doté d’une étape de ré-échantillonnage garantie et d’une stratégie de lissage par noyau (Kernel Regularisation). Le BRPF assure théoriquement une meilleure estimation que le BPF en termes de Mean Integrated Square Error (MISE). L’algorithme permet une réduction significative du coût de calcul par rapport aux approches précédentes (BPF, PF). Le BRPF est également étudié dans le cadre d’une intégration dans des architectures fédérées et distribuées, ce qui démontre son efficacité dans des cas multi-capteurs et multi-agents.Un autre aspect de la boucle de navigation–guidage-pilotage est le guidage qui nécessite de planifier la future trajectoire du système. Pour tenir compte de l'incertitude sur l'état et des contraintes potentielles de façon versatile, une approche nommé Box Particle Control (BPC) est introduite. Comme pour le BRPF, le BPC se base sur des mixtures de noyaux bornés par des boites et consiste en la propagation de la densité d’état sur une trajectoire jusqu’à un certain horizon de prédiction. Ceci permet d’estimer la probabilité de satisfaire les contraintes d’état au cours de la trajectoire et de déterminer la séquence de futures commandes qui maintient cette probabilité au-delà d’un certain seuil, tout en minimisant un coût. Le BPC permet de réduire significativement la charge de calcul
State estimation and trajectory planning are two crucial functions for autonomous systems, and in particular for aerospace vehicles.Particle filters and sample-based trajectory planning have been widely considered to tackle non-linearities and non-Gaussian uncertainties.However, these approaches may produce erratic results due to the sampled approximation of the state density.In addition, they have a high computational cost which limits their practical interest.This thesis investigates the use of box kernel mixtures to describe multimodal probability density functions.A box kernel mixture is a weighted sum of basic functions (e.g., uniform kernels) that integrate to unity and whose supports are bounded by boxes, i.e., vectors of intervals.This modelling yields a more extensive description of the state density while requiring a lower computational load.New algorithms are developed, based on a derivation of the Box Particle Filter (BPF) for state estimation, and of a particle based chance constrained optimisation (Particle Control) for trajectory planning under uncertainty.In order to tackle ambiguous state estimation problems, a Box Regularised Particle Filter (BRPF) is introduced.The BRPF consists of an improved BPF with a guaranteed resampling step and a smoothing strategy based on kernel regularisation.The proposed strategy is theoretically proved to outperform the original BPF in terms of Mean Integrated Square Error (MISE), and empirically shown to reduce the Root Mean Square Error (RMSE) of estimation.BRPF reduces the computation load in a significant way and is robust to measurement ambiguity.BRPF is also integrated to federated and distributed architectures to demonstrate its efficiency in multi-sensors and multi-agents systems.In order to tackle constrained trajectory planning under non-Gaussian uncertainty, a Box Particle Control (BPC) is introduced.BPC relies on an interval bounded kernel mixture state density description, and consists of propagating the state density along a state trajectory at a given horizon.It yields a more accurate description of the state uncertainty than previous particle based algorithms.A chance constrained optimisation is performed, which consists of finding the sequence of future control inputs that minimises a cost function while ensuring that the probability of constraint violation (failure probability) remains below a given threshold.For similar performance, BPC yields a significant computation load reduction with respect to previous approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Janapala, Arun. „RR INTERVAL ESTIMATION FROM AN ECG USING A LINEAR DISCRETE KALMAN FILTER“. Master's thesis, University of Central Florida, 2005. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/3426.

Der volle Inhalt der Quelle
Annotation:
An electrocardiogram (ECG) is used to monitor the activity of the heart. The human heart beats seventy times on an average per minute. The rate at which a human heart beats can exhibit a periodic variation. This is known as heart rate variability (HRV). Heart rate variability is an important measurement that can predict the survival after a heart attack. Studies have shown that reduced HRV predicts sudden death in patients with Myocardial Infarction (MI). The time interval between each beat is called an RR interval, where the heart rate is given by the reciprocal of the RR interval expressed in beats per minute. For a deeper insight into the dynamics underlying the beat to beat RR variations and for understanding the overall variance in HRV, an accurate method of estimating the RR interval must be obtained. Before an HRV computation can be obtained the quality of the RR interval data obtained must be good and reliable. Most QRS detection algorithms can easily miss a QRS pulse producing unreliable RR interval values. Therefore it is necessary to estimate the RR interval in the presence of missing QRS beats. The approach in this thesis is to apply KALMAN estimation algorithm to the RR interval data calculated from the ECG. The goal is to improve the RR interval values obtained from missed beats of ECG data.
M.S.E.E.
Department of Electrical and Computer Engineering
Engineering and Computer Science
Electrical Engineering
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Motwani, Amit. „Interval Kalman filtering techniques for unmanned surface vehicle navigation“. Thesis, University of Plymouth, 2015. http://hdl.handle.net/10026.1/3368.

Der volle Inhalt der Quelle
Annotation:
This thesis is about a robust filtering method known as the interval Kalman filter (IKF), an extension of the Kalman filter (KF) to the domain of interval mathematics. The key limitation of the KF is that it requires precise knowledge of the system dynamics and associated stochastic processes. In many cases however, system models are at best, only approximately known. To overcome this limitation, the idea is to describe the uncertain model coefficients in terms of bounded intervals, and operate the filter within the framework of interval arithmetic. In trying to do so, practical difficulties arise, such as the large overestimation of the resulting set estimates owing to the over conservatism of interval arithmetic. This thesis proposes and demonstrates a novel and effective way to limit such overestimation for the IKF, making it feasible and practical to implement. The theory developed is of general application, but is applied in this work to the heading estimation of the Springer unmanned surface vehicle, which up to now relied solely on the estimates from a traditional KF. However, the IKF itself simply provides the range of possible vehicle headings. In practice, the autonomous steering system requires a single, point-valued estimate of the heading. In order to address this requirement, an innovative approach based on the use of machine learning methods to select an adequate point-valued estimate has been developed. In doing so, the so called weighted IKF (wIKF) estimate provides a single heading estimate that is robust to bounded model uncertainty. In addition, in order to exploit low-cost sensor redundancy, a multi-sensor data fusion algorithm compatible with the wIKF estimates and which additionally provides sensor fault tolerance has been developed. All these techniques have been implemented on the Springer platform and verified experimentally in a series of full-scale trials, presented in the last chapter of the thesis. The outcomes demonstrate that the methods are both feasible and practicable, and that they are far more effective in providing accurate estimates of the vehicle’s heading than the conventional KF when there is uncertainty in the system model and/or sensor failure occurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Giacobini, Giulia. „Quando la possibilità filtra attraverso la volontà: esplorazione del concetto giapponese di MA“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8889/.

Der volle Inhalt der Quelle
Annotation:
La mia tesi si compone di tre capitoli e analizza il concetto giapponese di MA da diverse prospettive. Nel primo capitolo, “Il concetto giapponese di MA: un vuoto a rendere”, viene introdotta la tematica. Si procede dunque alla spiegazione della presenza di caratteri cinesi nella lingua giapponese e delle ragioni del dibattito nato tra gli studiosi in merito alla sua origine. Segue una panoramica sull’applicazione del MA ai vari ambiti della vita (architettura, cerimonia del the, arti visive, teatro, sport/arti marziali, dimensione quotidiana). Nel secondo capitolo “Speech is silver, silence is golden” il silenzio viene analizzato da un punto di vista culturale. A questo proposito viene presentato lo studio dell’antropologa Takie Sugiyama Lebra che ha individuato il silenzio come sintomo di onestà, espressione dell’applicazione della discrezione sociale, indice del grado di intimità tra le persone ed infine come forma di sfida e ribellione. Nel terzo ed ultimo capitolo, “Il silenzio è una cosa che suona per chi ascolta avidamente”, il silenzio viene invece analizzato da un punto di vista linguistico. Sulla base degli studi condotti da Yamada, Shigimetsu e Hosoda, la pausa viene dunque individuata come strumento per prendere la parola, feedback, modalità per cambiare eventualmente argomento ed infine come escamotage per evitare di dire di no.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Pereda, Sebastián Diego de. „Methods for the treatment of uncertainty in dynamical systems: Application to diabetes“. Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/54121.

Der volle Inhalt der Quelle
Annotation:
[EN] Patients suffering from Type 1 Diabetes are not able to secrete insulin, thus, they have to get it administered externally. Current research is focused on developing an artificial pancreas, a control system that automatically administers insulin according to patient's needs. The work presented here aims to improve the efficiency and safety of control algorithms for artificial pancreas. Glucose-insulin models try to mimic the administration of external insulin, the absorption of carbohydrates, and the influence of both of them in blood glucose concentration. However, these processes are infinitely complex and they are characterized by their high variability. The mathematical models used are often a simplified version which does not include all the process variability and, therefore, they do not always match reality. This deficiency on the models can be addressed by considering uncertainty on their parameters and initial conditions. In this way, the exact values are unknown but they can be bounded by intervals that comprehend all the variability of the considered process. When the value of the parameters and initial conditions is known, there is usually just one possible behaviour. However, if they are bounded by intervals, a set of possible solutions exists. In this case, it is interesting to compute a solution envelope that guarantees the inclusion of all the possible behaviours. A common technique to compute this envelope is the monotonicity analysis of the system. Nevertheless, some overestimation is produced if the system is not fully monotone. In this thesis, several methods and approaches have been developed to reduce, or even eliminate, the overestimation in the computation of solution envelopes, while satisfying the inclusion guarantee. Another problem found during the use of an artificial pancreas is that only the subcutaneous glucose concentration can be measured in real time, with some noise in the measurements. The rest of the system states are unknown, but they could be estimated from this set of noisy measurements by state observers, like Kalman filters. A detailed example is shown at the end of this thesis, where an Extended Kalman Filter is used to estimate in real time insulin concentration based on the food ingested and in periodical measurements of subcutaneous glucose.
[ES] Los pacientes que sufren de diabetes tipo 1 no son capaces de secretar insulina, por lo que tienen que administrársela externamente. La investigación actual se centra en el desarrollo de un páncreas artificial, un sistema de control que administre automáticamente la insulina en función de las necesidades del paciente. El trabajo que aquí se presenta tiene como objetivo mejorar la eficiencia y la seguridad de los algoritmos de control para el páncreas artificial. Los modelos de glucosa-insulina tratan de emular la administración externa de la insulina, la absorción de carbohidratos y la influencia de ambos en la concentración de glucosa en sangre. El problema es que estos procesos son infinitamente complejos y se caracterizan por su alta variabilidad. Los modelos matemáticos utilizados suelen ser una versión simplificada que no incluye toda la variabilidad del proceso y, por lo tanto, no coinciden con la realidad. Esta deficiencia de los modelos puede subsanarse considerando inciertos sus parámetros y las condiciones iniciales, de manera que se desconoce su valor exacto pero sí podemos englobarlos en ciertos intervalos que comprendan toda la variabilidad del proceso considerado. Cuando los valores de los parámetros y de las condiciones iniciales son conocidos, existe, por lo general, un único comportamiento posible. Sin embargo, si están delimitados por intervalos se obtiene un conjunto de posibles soluciones. En este caso, interesa obtener una envoltura de las soluciones que garantice la inclusión de todos los comportamientos posibles. Una técnica habitual que facilita el cómputo de esta envoltura es el análisis de la monotonicidad del sistema. Sin embargo, si el sistema no es totalmente monótono la envoltura obtenida estará sobrestimada. En esta tesis se han desarrollado varios métodos para reducir, o incluso eliminar, la sobrestimación en el cálculo de envolturas, al tiempo que se satisface la garantía de inclusión. Otro inconveniente con el que nos encontramos durante el uso de un páncreas artificial es que solo es posible medir en tiempo real, con cierto ruido en la medida, la glucosa subcutánea. El resto de los estados del sistema son desconocidos, pero podrían ser estimados a partir de este conjunto limitado de mediciones con ruido utilizando observadores de estado, como el Filtro de Kalman. Un ejemplo detallado se muestra al final de la tesis, donde se estima en tiempo real la concentración de insulina en plasma en función de la comida ingerida y de mediciones periódicas de la glucosa subcutánea con ayuda de un Filtro de Kalman Extendido.
[CAT] Els pacients que pateixen de diabetis tipus 1 no són capaços de secretar insulina, motiu pel qual han d'administrar-se-la externament. La investigació actual es centra en el desenvolupament d'un pàncrees artificial, un sistema de control que administre automàticament la insulina en funció de les necessitats del pacient. El treball que ací es presenta té com a objectiu millorar l'eficiència i la seguretat dels algorismes de control per al pàncrees artificial. Els models de glucosa-insulina tracten d'emular l'administració externa de la insulina, l'absorció de carbohidrats i la influència d'ambdós factors en la concentració de glucosa en sang. El problema és que estos processos són infinitament complexos i es caracteritzen per la seua alta variabilitat. Els models matemàtics emprats solen ser una versió simplificada que no inclou tota la variabilitat del procés i, per tant, no coincideixen amb la realitat. Esta deficiència dels models pot esmenar-se considerant incerts els seus paràmetres i les condicions inicials, de manera que es desconeix el seu valor exacte però sí podem englobar-los en certs intervals que comprenguen tota la variabilitat del procés considerat. Quan els valors dels paràmetres i de les condicions inicials són coneguts, existeix, en general, un únic comportament possible. No obstant, si estan delimitats per intervals s'obté un conjunt de possibles solucions. En este cas, interessa obtindre un embolcall de les solucions que assegure la inclusió de tots els comportaments possibles. Una tècnica habitual que facilita el còmput d'este embolcall és l'anàlisi de la monotonicitat del sistema. No obstant, si el sistema no és totalment monòton l'embolcall obtingut estarà sobreestimat. En esta tesi s'han desenvolupat diversos mètodes per a reduir, o fins i tot eliminar, la sobreestimació en el càlcul dels embolcalls, al temps que se satisfà la garantia d'inclusió. Altre inconvenient amb què ens trobem durant l'ús d'un pàncrees artificial és que només és possible mesurar en temps real, amb cert soroll en la mesura, la glucosa subcutània. La resta dels estats del sistema són desconeguts, però podrien ser estimats a partir d'este conjunt limitat de mesures amb soroll utilitzant observadors d'estat, com el Filtre de Kalman. Un exemple detallat es mostra al final de la tesi, on s'estima en temps real la concentració d'insulina en plasma en funció del menjar ingerit i de les mesures periòdiques de la glucosa subcutània amb ajuda d'un Filtre de Kalman Estés.
Pereda Sebastián, DD. (2015). Methods for the treatment of uncertainty in dynamical systems: Application to diabetes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/54121
TESIS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Nicklas, Richard B. „An application of a Kalman Filter Fixed Interval Smoothing Algorithm to underwater target tracking“. Thesis, Monterey, California. Naval Postgraduate School, 1989. http://hdl.handle.net/10945/25691.

Der volle Inhalt der Quelle
Annotation:
A Fortran program was developed to implement a Kalman Filter and Fixed Interval Smoothing Algorithm to optimally data tracks generated by the short base-line tracking ranges at the Naval Torpedo Station, Keyport, Washington. The program is designed to run on a personal computer and requires as input a data file consisting of X, Y, and Z position coordinates in sequential order. Data files containing the filtered and smoothed estimates are generated by the program. This algorithm uses a second order linear model to predict a typical target's dynamics. The program listings are includes as appendices. Several runs of the program were performed using actual range data as inputs. Results indicate that the program effectively reduces random noise, thus providing very smooth target tracks which closely follow the raw data. Tracks containing data generated in an overlap region where one array hands off the target to the next array are highlighted. The effects of varying the magnitude of the excitation matrix Q(k) are also explored. This program is seen as a valuable post-data analysis tool for the current tracking range data. In addition, it can easily be modified to provide improved real time, on line tracking using the Kalman Filter portion of the algorithm alone
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Galinis, William J. „Fixed interval smoothing algorithm for an extended Kalman filter for over-the-horizon ship tracking“. Thesis, Monterey, California. Naval Postgraduate School, 1989. http://hdl.handle.net/10945/27057.

Der volle Inhalt der Quelle
Annotation:
The performance of an extended Kalman filter used to track a maneuvering surface target using HFDF lines-of-bearing is substantially improved by implementing a fixed interval smoothing algorithm and a maneuver detection method that uses a noise variance estimator process. This tracking routine is designed and implemented in a computer program developed for this thesis. The Hall noise model is used to accurately evaluate the performance of the tracking algorithm in a noisy environment. Several tracking scenarios are simulated and analyzed. The application of the Kalman tracker to a tropical storm tracking is investigated. Actual storm tracks obtained from the Joint Typhoon Warning Center in Guam, Mariana Islands are used for this research
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Araya, Ignacio. „Exploitation des sous-expressions communes et de la monotonie des fonctions pour les algorithmes de filtrage sur intervalles“. Nice, 2010. http://www.theses.fr/2010NICE4069.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur les méthodes d’intervalles pour la résolution de systèmes de contraintes non linéaires. Nous présentons quelques contributions, visant toutes à améliorer les algorithmes de propagation de contraintes. Ces algorithmes contractent les domaines des variables d’une contrainte avec une procédure de révision (revise) et propagent les modifications dans le reste du système. Nos deux premières contributions sont liées à la monotonie des fonctions et au problème de dépendance qui se produit quand une variable apparait plusieurs fois dans une fonction f. Dans ce cas, les méthodes d’intervalles ne peuvent généralement calculer qu’une approximation de l’image de f. De même, ces méthodes ne peuvent pas contracter de manière optimale les domaines des variables impliquées dans d’une contrainte. Premièrement, nous proposons un nouvel algorithme Mohc-Revise qui calcule la contraction optimale des variables (par rapport à une contrainte individuelle) quand la fonction est monotone. La seconde contribution de regroupement d’occurrence (Occurrence Grouping) est une technique qui transforme une fonction f en une fonction équivalente f_og, telle que l’image de f_og peut être mieux approximée en utilisant la monotonie de f_og. La troisième contribution est liée à la technique d’élimination de sous-expressions communes (CSE). CSE est une technique bien connue principalement utilisée en optimisation de code. Elle consiste essentiellement à remplacer chaque sous-expression g(X), partagée par deux ou plusieurs expressions, par une variable auxiliaire v et à ajouter la nouvelle contrainte v = g(X). Dans cette thèse, nous prouvons que le prétraitement par des techniques de CSE peut améliorer le filtrage des algorithmes de propagation de contraintes. Enfin, nous proposons une nouvelle consistance partielle basée sur les sous-systèmes bien-contraints de taille k. Contracter ces sous-systèmes peut apporter du filtrage supplémentaire par rapport aux contracteurs globaux (comme Newton intervalles) et par rapport aux procédures de révisions utilisées dans la propagation de contraintes
This thesis deals with the solving of nonlinear systems of equations/constraints by interval-based methods. We present four contributions, all of them aiming at improving constraint propagation algorithms. Constraint propagation contracts the variable domains of individual constraints with a revise procedure and propagates the changes to the rest of the system. Our first two contributions are related to monotonicity of functions and to the dependency problem that occurs when a variable appears several times in a function f. In this case, interval-based methods can generally compute only an approximation of the exact range of f. In the same way, these methods cannot contract optimally the variable domains related to an individual constraint. First, we propose a new Mohc-Revise algorithm that computes the optimal contraction of variables (w. R. T. An individual constraint) when the function is monotonic. The second contribution is an Occurrence Grouping technique that transforms a function f into an equivalent function f_opg, such that the range of f_og can be better approximated by using the monotonicity property. The third contribution is related to the common subexpression elimination technique (CES). CSE is a well-known technique mainly used in code optimization. It basically consists in replacing each subexpression g(X) shared by two or more expressions by an auxiliary variable v and adding the new constraint v = g(X). In this thesis, we prove that the use of CSE techniques in interval analysis as a preprocessing can improve the filtering power of constraint propagation algorithms. Finally, we propose a new partial focusing on well-constrained subsystems of size k. Contracting these subsystems can bring additional filtering compared to global contractors (like interval Newton) and revise procedure used in constraint propagation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Al, Mashhadani Waleed. „The use of multistaic radar in reducing the impact of wind farm on civilian radar system“. Thesis, University of Manchester, 2017. https://www.research.manchester.ac.uk/portal/en/theses/the-use-of-multistaic-radar-in-reducing-the-impact-of-wind-farm-on-civilian-radar-system(a80fd906-e670-42a0-9efb-ea22250c87f2).html.

Der volle Inhalt der Quelle
Annotation:
The effects of wind farm installation on the conventional monostatic radar operation have been investigated in previous studies. The interference on radar operation is due to the complex scattering characteristics from the wind turbine structure. This research considers alternative approach for studying and potentially mitigating these negative impacts by adapting the multistatic radar system technique. This radar principle is well known and it is attracting research interest recently, but has not been applied in modelling the wind farm interference on multistatic radar detection and tracking of multiple targets. The research proposes two areas of novelties. The first area includes the simulation tool development of multistatic radar operation near a wind farm environment. The second area includes the adaptation of Range-Only target detection approach based on mathematical and/or statistical methods for target detection and tracking, such as Interval Analysis and Particle Filter. These methods have not been applied against such complex detection scenario of large number of targets within a wind farm environment. Range-Only target detection approach is often considered to achieve flexibility in design and reduction in cost and complexity of the radar system. However, this approach may require advanced signal processing techniques to effectively associate measurements from multiple sensors to estimate targets positions. This issue proved to be more challenging for the complex detection environment of a wind farm due to the increase in number of measurements from the complex radar scattering of each turbine. The research conducts a comparison between Interval Analysis and Particle Filter. The comparison is based on the performance of the two methods according to three aspects; number of real targets detected, number of ghost targets detected and the accuracy of the estimated detections. Different detection scenarios are considered for this comparison, such as single target detection, wind farm detection, and ultimately multiple targets at various elevations within a wind farm environment.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Kubík, Pavel. „Měření intenzity provozu během pevně daných intervalů v AP“. Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2011. http://www.nusl.cz/ntk/nusl-218833.

Der volle Inhalt der Quelle
Annotation:
The thesis analyzes the network traffic on a router with open source firmware. First is chosen a software platform, based on compatibility with available equipment. Then are assessed properties necessary for the development of custom applications. Support for various programming languages provided by the SDK, development environment and the available modules and libraries, for working with network interface. Based on these factors is then chose method to realize the program. He is implemented on the OpenWRT firmware in C / C + + using network library pcap. These funds are used to capture and analyze network traffic. Obtained data are processed using methods of technical analysis, namely on the basis of moving averages, Stochastic oscillator and Bollinger bands. Based on results of these methods are generated and verified estimates of traffic. They are based on linear extrapolation, simplified for fixed intervals. The validity of each method is verified on base of the estimated value. Method is verified if estimated value of the traffic volume is in the Bollinger band, which is given by the standard deviation. Each method is tested several times in real traffic with different input parameters. Then is evaluated the influence of parameters on the error rate of methods. Individual methods are compared and evaluated based on the behavior in different scenarios and based on the average relative error.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Lv, Xiaowei. „Indoor localization in wireless sensor networks“. Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0009/document.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit est dédié à la résolution du problème de localisation dans les réseaux de capteurs sans fil mobiles. Les méthodes développées se basent principalement sur des caractéristiques de fingerprints ainsi que sur des informations de mobilité. Les premières s'attaquent aux valeurs de RSSI entre capteurs tandis que les deuxièmes prennent en considération la mobilité des capteurs mesurée à l'aide d'accéléromètres et de gyroscopes. La combinaison des données collectées est effectuée dans le cadre de l'analyse par intervalles, ou bien du filtrage de Kalman. Les travaux proposés introduisent des modèles de mobilité d'ordres un, deux ou trois, permettant d'approximer au mieux les trajectoires des capteurs à l'aide des accélérations mesurées. Ceux-là sont couplés à l'algorithme des K plus proches voisins, d'abord dans un système centralisé. Ensuite, les modèles de mobilités sont améliorés pour prendre en compte les rotations des nœuds. Une méthode de localisation décentralisée est également proposée dans ce qui suit, s'adaptant au mécanisme fonctionnel des réseaux de capteurs de grande échelle. Enfin, ce manuscrit propose une méthode de zonage visant à déterminer les zones dans lesquelles les capteurs résident. La méthode proposée aborde le problème de zonage en utilisant à la fois la théorie des fonctions de croyance et l'analyse par intervalles
This thesis is dedicated to solve the localization problem in mobile wireless sensor networks. It works mainly with fingerprints features and inertial movements information. The former tackles the RSSIs values between sensors while the latter deals with the objets movement attitude by using accelerometer and gyroscope. The combination of both information is performed in terms of interval analysis, or Kalman filtering. The proposed work introduces three orders mobility models to approximate nodes trajectories using accelerations, combined then to the weighted K nearest neighbors algorithm in a centralized scheme. Then the mobility models are extended up to the inertial information taking into consideration the rotations of the nodes. A decentralized localization method is also proposed in the following in view of the working mechanism of large scale sensor networks. Finally, this thesis proposes a zoning localization method aiming at determining the zones in which the nodes reside. The proposed method addresses the zoning problem by using both the belief functions theory and the interval analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Robinson, Elinirina Iréna. „Filtering and uncertainty propagation methods for model-based prognosis“. Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1189/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire concernent le développement de méthodes de pronostic à base de modèles. Le pronostic à base de modèles a pour but d'estimer le temps qu'il reste avant qu'un système ne soit défaillant, à partir d'un modèle physique de la dégradation du système. Ce temps de vie restant est appelé durée de résiduelle (RUL) du système.Le pronostic à base de modèle est composé de deux étapes principales : (i) estimation de l'état actuel de la dégradation et (ii) prédiction de l'état futur de la dégradation. La première étape, qui est une étape de filtrage, est réalisée à partir du modèle et des mesures disponibles. La seconde étape consiste à faire de la propagation d'incertitudes. Le principal enjeu du pronostic concerne la prise en compte des différentes sources d'incertitude pour obtenir une mesure de l'incertitude associée à la RUL prédite. Les principales sources d'incertitude sont les incertitudes de modèle, les incertitudes de mesures et les incertitudes liées aux futures conditions d'opération du système. Afin de gérer ces incertitudes et les intégrer au pronostic, des méthodes probabilistes ainsi que des méthodes ensemblistes ont été développées dans cette thèse.Dans un premier temps, un filtre de Kalman étendu ainsi qu'un filtre particulaire sont appliqués au pronostic de propagation de fissure, en utilisant la loi de Paris et des données synthétiques. Puis, une méthode combinant un filtre particulaire et un algorithme de détection (algorithme des sommes cumulatives) a été développée puis appliquée au pronostic de propagation de fissure dans un matériau composite soumis à un chargement variable. Cette fois, en plus des incertitudes de modèle et de mesures, les incertitudes liées aux futures conditions d'opération du système ont aussi été considérées. De plus, des données réelles ont été utilisées. Ensuite, deux méthodes de pronostic sont développées dans un cadre ensembliste où les erreurs sont considérées comme étant bornées. Elles utilisent notamment des méthodes d'inversion ensembliste et un observateur par intervalles pour des systèmes linéaires à temps discret. Enfin, l'application d'une méthode issue du domaine de l'analyse de fiabilité des systèmes au pronostic à base de modèles est présentée. Il s'agit de la méthode Inverse First-Order Reliability Method (Inverse FORM).Pour chaque méthode développée, des métriques d'évaluation de performance sont calculées dans le but de comparer leur efficacité. Il s'agit de l'exactitude, la précision et l'opportunité
In this manuscript, contributions to the development of methods for on-line model-based prognosis are presented. Model-based prognosis aims at predicting the time before the monitored system reaches a failure state, using a physics-based model of the degradation. This time before failure is called the remaining useful life (RUL) of the system.Model-based prognosis is divided in two main steps: (i) current degradation state estimation and (ii) future degradation state prediction to predict the RUL. The first step, which consists in estimating the current degradation state using the measurements, is performed with filtering techniques. The second step is realized with uncertainty propagation methods. The main challenge in prognosis is to take the different uncertainty sources into account in order to obtain a measure of the RUL uncertainty. There are mainly model uncertainty, measurement uncertainty and future uncertainty (loading, operating conditions, etc.). Thus, probabilistic and set-membership methods for model-based prognosis are investigated in this thesis to tackle these uncertainties.The ability of an extended Kalman filter and a particle filter to perform RUL prognosis in presence of model and measurement uncertainty is first studied using a nonlinear fatigue crack growth model based on the Paris' law and synthetic data. Then, the particle filter combined to a detection algorithm (cumulative sum algorithm) is applied to a more realistic case study, which is fatigue crack growth prognosis in composite materials under variable amplitude loading. This time, model uncertainty, measurement uncertainty and future loading uncertainty are taken into account, and real data are used. Then, two set-membership model-based prognosis methods based on constraint satisfaction and unknown input interval observer for linear discete-time systems are presented. Finally, an extension of a reliability analysis method to model-based prognosis, namely the inverse first-order reliability method (Inverse FORM), is presented.In each case study, performance evaluation metrics (accuracy, precision and timeliness) are calculated in order to make a comparison between the proposed methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Robinson, Elinirina Iréna. „Filtering and uncertainty propagation methods for model-based prognosis“. Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1189.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire concernent le développement de méthodes de pronostic à base de modèles. Le pronostic à base de modèles a pour but d'estimer le temps qu'il reste avant qu'un système ne soit défaillant, à partir d'un modèle physique de la dégradation du système. Ce temps de vie restant est appelé durée de résiduelle (RUL) du système.Le pronostic à base de modèle est composé de deux étapes principales : (i) estimation de l'état actuel de la dégradation et (ii) prédiction de l'état futur de la dégradation. La première étape, qui est une étape de filtrage, est réalisée à partir du modèle et des mesures disponibles. La seconde étape consiste à faire de la propagation d'incertitudes. Le principal enjeu du pronostic concerne la prise en compte des différentes sources d'incertitude pour obtenir une mesure de l'incertitude associée à la RUL prédite. Les principales sources d'incertitude sont les incertitudes de modèle, les incertitudes de mesures et les incertitudes liées aux futures conditions d'opération du système. Afin de gérer ces incertitudes et les intégrer au pronostic, des méthodes probabilistes ainsi que des méthodes ensemblistes ont été développées dans cette thèse.Dans un premier temps, un filtre de Kalman étendu ainsi qu'un filtre particulaire sont appliqués au pronostic de propagation de fissure, en utilisant la loi de Paris et des données synthétiques. Puis, une méthode combinant un filtre particulaire et un algorithme de détection (algorithme des sommes cumulatives) a été développée puis appliquée au pronostic de propagation de fissure dans un matériau composite soumis à un chargement variable. Cette fois, en plus des incertitudes de modèle et de mesures, les incertitudes liées aux futures conditions d'opération du système ont aussi été considérées. De plus, des données réelles ont été utilisées. Ensuite, deux méthodes de pronostic sont développées dans un cadre ensembliste où les erreurs sont considérées comme étant bornées. Elles utilisent notamment des méthodes d'inversion ensembliste et un observateur par intervalles pour des systèmes linéaires à temps discret. Enfin, l'application d'une méthode issue du domaine de l'analyse de fiabilité des systèmes au pronostic à base de modèles est présentée. Il s'agit de la méthode Inverse First-Order Reliability Method (Inverse FORM).Pour chaque méthode développée, des métriques d'évaluation de performance sont calculées dans le but de comparer leur efficacité. Il s'agit de l'exactitude, la précision et l'opportunité
In this manuscript, contributions to the development of methods for on-line model-based prognosis are presented. Model-based prognosis aims at predicting the time before the monitored system reaches a failure state, using a physics-based model of the degradation. This time before failure is called the remaining useful life (RUL) of the system.Model-based prognosis is divided in two main steps: (i) current degradation state estimation and (ii) future degradation state prediction to predict the RUL. The first step, which consists in estimating the current degradation state using the measurements, is performed with filtering techniques. The second step is realized with uncertainty propagation methods. The main challenge in prognosis is to take the different uncertainty sources into account in order to obtain a measure of the RUL uncertainty. There are mainly model uncertainty, measurement uncertainty and future uncertainty (loading, operating conditions, etc.). Thus, probabilistic and set-membership methods for model-based prognosis are investigated in this thesis to tackle these uncertainties.The ability of an extended Kalman filter and a particle filter to perform RUL prognosis in presence of model and measurement uncertainty is first studied using a nonlinear fatigue crack growth model based on the Paris' law and synthetic data. Then, the particle filter combined to a detection algorithm (cumulative sum algorithm) is applied to a more realistic case study, which is fatigue crack growth prognosis in composite materials under variable amplitude loading. This time, model uncertainty, measurement uncertainty and future loading uncertainty are taken into account, and real data are used. Then, two set-membership model-based prognosis methods based on constraint satisfaction and unknown input interval observer for linear discete-time systems are presented. Finally, an extension of a reliability analysis method to model-based prognosis, namely the inverse first-order reliability method (Inverse FORM), is presented.In each case study, performance evaluation metrics (accuracy, precision and timeliness) are calculated in order to make a comparison between the proposed methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Xiong, Jun. „Set-membership state estimation and application on fault detection“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2013. http://tel.archives-ouvertes.fr/tel-01068054.

Der volle Inhalt der Quelle
Annotation:
La modélisation des systèmes dynamiques requiert la prise en compte d'incertitudes liées à l'existence inévitable de bruits (bruits de mesure, bruits sur la dynamique), à la méconnaissance de certains phénomènes perturbateurs mais également aux incertitudes sur la valeur des paramètres (spécification de tolérances, phénomène de vieillissement). Alors que certaines de ces incertitudes se prêtent bien à une modélisation de type statistique comme par exemple les bruits de mesure, d'autres se caractérisent mieux par des bornes, sans autre attribut. Dans ce travail de thèse, motivés par les observations ci-dessus, nous traitons le problème de l'intégration d'incertitudes statistiques et à erreurs bornées pour les systèmes linéaires à temps discret. Partant du filtre de Kalman Intervalle (noté IKF) développé dans [Chen 1997], nous proposons des améliorations significatives basées sur des techniques récentes de propagation de contraintes et d'inversion ensembliste qui, contrairement aux mécanismes mis en jeu par l'IKF, permettent d'obtenir un résultat garanti tout en contrôlant le pessimisme de l'analyse par intervalles. Cet algorithme est noté iIKF. Le filtre iIKF a la même structure récursive que le filtre de Kalman classique et délivre un encadrement de tous les estimés optimaux et des matrices de covariance possibles. L'algorithme IKF précédent évite quant à lui le problème de l'inversion des matrices intervalles, ce qui lui vaut de perdre des solutions possibles. Pour l'iIKF, nous proposons une méthode originale garantie pour l'inversion des matrices intervalle qui couple l'algorithme SIVIA (Set Inversion via Interval Analysis) et un ensemble de problèmes de propagation de contraintes. Par ailleurs, plusieurs mécanismes basés sur la propagation de contraintes sont également mis en oeuvre pour limiter l'effet de surestimation due à la propagation d'intervalles dans la structure récursive du filtre. Un algorithme de détection de défauts basé sur iIKF est proposé en mettant en oeuvre une stratégie de boucle semi-fermée qui permet de ne pas réalimenter le filtre avec des mesures corrompues par le défaut dès que celui-ci est détecté. A travers différents exemples, les avantages du filtre iIKF sont exposés et l'efficacité de l'algorithme de détection de défauts est démontré.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ipek, Ozlem. „Target Tracking With Phased Array Radar By Using Adaptive Update Rate“. Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/2/12611589/index.pdf.

Der volle Inhalt der Quelle
Annotation:
In radar target tracking problems, it may be required to use adaptive update rate in order to maintain the tracking accuracy while allowing the radar to use its resources economically at the same time. This is generally the case if the target trajectory has maneuvering segments and in such a case the use of adaptive update time interval algorithms for estimation of the target state may enhance the tracking accuracy. Conventionally, fixed track update time interval is used in radar target tracking due to the traditional nature of mechanically steerable radars. In this thesis, as an application to phased array radar, the adaptive update rate algorithm approach developed in literature for Alpha-Beta filter is extended to Kalman filter. A survey over relevant adaptive update rate algorithms used previously in literature on radar target tracking is presented including aspects related to the flexibility of these algorithms for the tracking filter. The investigation of the adaptive update rate algorithms is carried out for the Kalman filter for the single target tracking problem where the target has a 90°
maneuvering segment in its trajectory. In this trajectory, the starting and final time instants of the single maneuver are specified clearly, which is important in the assessment of the algorithm performances. The effects of incorporating the variable update time interval into target tracking problem are presented and compared for several different test cases.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Vincke, Bastien. „Architectures pour des systèmes de localisation et de cartographie simultanées“. Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00770323.

Der volle Inhalt der Quelle
Annotation:
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Gensel, Jérôme. „Contraintes et représentation de connaissances par objets : application au modèle Tropes“. Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005046.

Der volle Inhalt der Quelle
Annotation:
Ce travail montre que l'introduction de contraintes dans un modèle de connaissances à objets permet d'en accroître à la fois l'expressivité (les contraintes sont des énoncés déclaratifs de relations entre attributs) et les capacités d'inférence (la maintenance et la résolution des contraintes sont chargées de la cohérence et de la complétion des bases de connaissances). Les répercussions de la présence de contraintes au sein d'un tel système sont également étudiées. Les attributs contraints sont désignés à l'aide de la notion d'accès, qui étend la notion classique de chemin au traitement des attributs multivalués (dont la valeur est un ensemble ou une liste de valeurs). Les niveaux de représentation considérés (concept, classe, instance) définissent la portée d'une contrainte comme l'ensemble des objets sur lesquels elle doit être posée, et induisent alors entre eux un héritage de ce trait descriptif. De même, le maintien d'un certain degré de consistance locale sur les domaines des attributs exige une gestion interne de leurs types. Vis-a-vis des mécanismes d'inférence du modèle (instanciation, classification, procédures, etc.), un comportement adapté des contraintes est établi, qui ne remet pas en cause la sémantique de ces mécanismes. Ces principes d'intégration ont été validés dans le modèle de connaissances à objets Tropes. Nous avons réalisé un module de programmation par contraintes, appelé Micro, qui est semi-faiblement couplé à Tropes. Micro répond à de nombreuses exigences de la représentation de connaissances par objets, en gérant la maintenance et la résolution de Problèmes de Satisfaction de Contraintes (CSP) dynamiques, définis sur des variables numériques, booléennes, ou multivaluées, dont les domaines sont finis ou infinis. L'intégration qui a été réalisée autorise, en outre, l'utilisation de la puissance expressive et calculatoire des contraintes par le système de représentation de connaissances lui-même. Ainsi, la présence des contraintes permet d'étendre et de contrôler la sémantique de notions diverses et évoluées comme celles d'objet composite, de tâche, de relation, ou encore de filtre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Lévêque, Olivier. „Méthodes ensemblistes pour la localisation de véhicules“. Compiègne, 1998. http://www.theses.fr/1998COMP1090.

Der volle Inhalt der Quelle
Annotation:
Le contexte général de ces travaux de recherche est celui des robots mobiles autonomes appelés à évoluer dans des environnements structurés et partiellement cartographiés en 2D. La problématique de la thèse a trait à l'étude de la fonction de localisation. Le problème de localisation se décompose en deux sous-problèmes l'initialisation et le suivi dynamique. L'initalisation de la localisation est un problème, qui demeure ouvert, à la fois complexe et fondamental pour le développement de l'autonomie du robot. Cet aspect de la fonction de localisation, peu abordé dans la littérature contrairement au problème de suivi dynamique de la localisation pour lequel des méthodes éprouvées sont disponibles, a motivé les travaux rapportés dans ce manuscrit. Le principe de localisation, commun aux différentes méthodes présentées, est fondé sur une analogie mécanique de la mesure télémétrique. La première méthode originale, qui est géométrique, fait appel à un algorithme de fenêtrage issu du domaine de l'infographie. La deuxième méthode de localisation développée met en œuvre une technique statistique d'estimation d'état bien connue, le filtrage de KALMAN étendu. La troisième méthode de localisation est ensembliste à erreur bornée, et s'appuie sur une technique ellipsoïdale d'estimation d'état de modèles linéaires. L'ultime méthode de localisation développée, qui est basée sur l'inversion ensembliste par analyse par intervalles, répond avec efficacité, fiabilité et robustesse au délicat problème d'initialisation de la localisation. Cette approche garantie ne nécessite pas de mise en correspondance a priori entre les mesures et les amers de l'environnement. Cette mise en correspondance est au contraire un produit dérivé de l'application de l'algorithme. Lorsque les mesures se révèlent être ambigues, la méthode génère toutes les différentes hypothèses de localisation qui permettent d'expliquer les mesures. Les quatre méthodes de localisation, présentées dans ce document, ont été validées et comparées au moyen de tests à partir de données simulées et réelles issues des télémètres à ultrasons embarqués sur la plate-forme expérimentale du laboratoire
Broadly speaking, the context of these research works is hose or autonomous mobile robots which are designed to move in structured and par tially 2D-mapped environments. The presented thesis consists in studying the localization fonction. The localization problem is decomposed in two subproblems : the initialization and the dynamical tracking of the localization. Initializing the localization is an open problem, which is both complex and fundamental to enhance the robot autonomy. The sight of the localization fonction, that is not very tackle in the literature contrary to localization tracking problem for which experienced technical solutions are available, has motivated the works reported in this manuscript. The localization principle, common to the all different presented methods, is based on a mechanical analogy of the telemetric range measurement. The first original method is geometric and appeals to a clipping algorithm specially suited to our robotic application. The second localization method uses the extended KALMAN filtering which is a widely known statistical state estimation tool. The third localization method is a bounded-error set membership one, that leans on an ellipsoïdal technique of state estimation for linear models. The last developed rnethod, which is based on set inversion via interval analysis, constitutes an efficient, reliable and robust solution to answer to the critical localization initialization problem. In this guaranteed approach, the difficult matching step between the range measurements and the landmarks of the environrnent, that is needed to applicate the previously presented methods, becomes a sub-product of the set inversion localization method. When the telemetric measurements are ambignous, the method produces all the different localization hypotheses which allow to explain the measurements. All the four localization methods described in this document have been validated and compared by means of tests from both simulated data and real ones produced by the ultrasonic range sensors on board the experimental vehicle of the laboratory
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Lank, Petr. „Externí kardiostimulátor“. Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2008. http://www.nusl.cz/ntk/nusl-217226.

Der volle Inhalt der Quelle
Annotation:
This master´s thesis deals with the problem of heart stimulation by using external pacemaker. Such external pacemaker is used for a short – time stimulation of patient to overcome the time before the implantation of such apparatus. The master´s thesis informs about the basic function of heart and possible heart disorders which are treated by pacemaker. Great deal of master´s thesis is devoted to the design of external pacemaker wiring. This section describes the possibilities of controlling the pacemaker, circuits for detection R-R interval, a design of output circuit eith regard to required of stimulation and pacemaker feeding. The program Pspice was used to check the functional appropriateness of designed circuits and it was successively simulated in a non - soldering field.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Mlčoch, Marek. „Kumulace biologických dat“. Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2011. http://www.nusl.cz/ntk/nusl-219246.

Der volle Inhalt der Quelle
Annotation:
The thesis deals with the biological data averaging applied to a periodical and repetitive signal, specifically to an ECG signals. There were used signals from MIT-BIH Arrhythmia database and ÚBMI database. Averaging was realized with constant, floating and exponential Windows, where was used the method of addition of the filtered residue. This method is intended to capture the slow variations from the input to the output signal. The outcomes of these methods can be used as a basis for further work, or function as an example of principled methods. Methods and its outcomes were created in Matlab.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Vestin, Albin, und Gustav Strandberg. „Evaluation of Target Tracking Using Multiple Sensors and Non-Causal Algorithms“. Thesis, Linköpings universitet, Reglerteknik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-160020.

Der volle Inhalt der Quelle
Annotation:
Today, the main research field for the automotive industry is to find solutions for active safety. In order to perceive the surrounding environment, tracking nearby traffic objects plays an important role. Validation of the tracking performance is often done in staged traffic scenarios, where additional sensors, mounted on the vehicles, are used to obtain their true positions and velocities. The difficulty of evaluating the tracking performance complicates its development. An alternative approach studied in this thesis, is to record sequences and use non-causal algorithms, such as smoothing, instead of filtering to estimate the true target states. With this method, validation data for online, causal, target tracking algorithms can be obtained for all traffic scenarios without the need of extra sensors. We investigate how non-causal algorithms affects the target tracking performance using multiple sensors and dynamic models of different complexity. This is done to evaluate real-time methods against estimates obtained from non-causal filtering. Two different measurement units, a monocular camera and a LIDAR sensor, and two dynamic models are evaluated and compared using both causal and non-causal methods. The system is tested in two single object scenarios where ground truth is available and in three multi object scenarios without ground truth. Results from the two single object scenarios shows that tracking using only a monocular camera performs poorly since it is unable to measure the distance to objects. Here, a complementary LIDAR sensor improves the tracking performance significantly. The dynamic models are shown to have a small impact on the tracking performance, while the non-causal application gives a distinct improvement when tracking objects at large distances. Since the sequence can be reversed, the non-causal estimates are propagated from more certain states when the target is closer to the ego vehicle. For multiple object tracking, we find that correct associations between measurements and tracks are crucial for improving the tracking performance with non-causal algorithms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Shen, Kuan-Wei, und 沈冠緯. „Using a Hybrid of Interval Type-2 RFCMAC and Bilateral Filter for Satellite Image Dehazing“. Thesis, 2017. http://ndltd.ncl.edu.tw/handle/764ug2.

Der volle Inhalt der Quelle
Annotation:
碩士
國立勤益科技大學
資訊工程系
105
With advances in technology, the development of Remote Sensing Satellite Image has been real-time and accurate to monitor the environment of the surface or prevent the inevitable disaster earlier. Owing to the changeable weather is just like clouds or haze constituted by atmospheric particles, then this phenomenon cause the low contrast presented in satellite image and lose many information on the surface of the earth. Therefore, in this paper we propose an issue for dehazing to single satellite image, which is to enhance the contrast of image and filter the haze that cover the location, then the losing information will be back. First, we use Interval Type-2 RFCMAC Model to estimate the initial transmission map of the image. When facing the problems of halo and color over saturation, we adopt the bilateral filter and the quadratic function nonlinear transformation step by step to refine the initial transmission map. At the atmospheric light estimation, we adopt the first 1% brightest area as the color vector of atmospheric light. Finally, we take the refined transmission map and atmospheric light as the two parameters of reconstruct image. The experiment result shows that the method of satellite image dehazing has an effective results in visibility details and color contrast of reconstruction image. Furthermore, in order to prove the effective results, we take the visual assessment and quantitative evaluation respectively to compare with other authors. After visual assessment and quantitative evaluation, we get the better result in visual and data indeed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Paczkowski, Sebastian. „Insect olfaction as an information filter for chemo-analytical applications“. Doctoral thesis, 2013. http://hdl.handle.net/11858/00-1735-0000-0022-5E8A-A.

Der volle Inhalt der Quelle
Annotation:
Die Geruchswahrnehmung von Insekten ist an die spezifischen Anforderungen der Ökosysteme angepasst, in denen sie leben. Von Insekten wahrgenommene Volatile können Informationen über den Ort eines geeigneten Ovipositionsplatzes oder den physiologischen Zustand einer Wirtspflanze geben. Da der Geruchssinn der Insekten sich seit Millionen von Jahren an die Wahrnehmung bestimmter Volatile angepasst hat, können die wahrgenommenen Volatile als Markerstoffe angesehen werden, die zuverlässig einen Ökosystemzustand angeben können. Die Identifikation dieser Markerzustände und die Evaluation ihrer Nützlichkeit für spurenanalytische Anwendungen ist das Ziel dieser Arbeit. Es wurden drei Themen ausgewählt um die Verwendungsmöglichkeit des Insektengeruchssinns für Sensoranwendungen zu überprüfen: Fleischfrische, Todeszeitbestimmung (post mortem Intervall, PMI) und frühzeitige Feuererkennung. Spurenanalytik (GC-MS), Elektrophysiologie (EAG, GC-MS/EAD), Verhaltensversuche und Feldtests wurden angewandt, um die chemoökologische Interaktion der Schmeißfliege Calliphora vicina und der „Feuerkäfer“ Melanophila cuspidata, Merimna atrata and Acanthocnemus nigricans mit ihrer natürlichen Umgebung zu untersuchen. Die Resultate aus diesen Methoden erlaubten die Selektion von Volatilen, die drei Kriteria erfüllen: hohe Quantität, zuverlässige Emission und die ausschliessliche Emission von der untersuchten und keiner anderen Quelle. Diese drei Auswahlkriterien wurden aufgestellt um zu gewährleisten, dass die ausgewählten Markervolatile nicht nur zuverlässig mit dem physiologischen Status der Substrate (Alter von verderbendem Fleisch, PMI, Temperatur von erhitzten Spänen) korrelieren, sondern auch den Ansprüchen technischen Sensorsysteme genügen. Im Falle des alternden Fleisches unter warmen und trockenen Bedingungen ist Nonanal ein Zeiger für die korrekte Reifung des Fleisches zu Schinken. Dimethyl Trisulfid, Phenol und Indol zeigen das Verderben des Fleisches unter warmen und feuchten Bedingungen an. Bei niedrigen Temperaturen sind zunehmende 2,3 Butandiol Emission und abnehmende Nonanal Emission ein Zeiger für zunehmendes Verderben des Fleisches, sowohl unter trockenen als auch feuchten Bedingungen. Allerdings wurde 2,3 Butandiol nicht von C. vicina wahrgenommen, da die Fliege während der Vegetationszeit aktiv ist und unter diesen Bedingungen Dimethyl Trisulfid, Phenol und Indol emittiert werden. Nonanal, Hexanal, Dimethyl Disulfid, Dimethyl Trisulfid, Butan-1-ol und Phenol wurden als nützliche Volatile zur Eingrenzung der Leichenliegezeit ausgewählt. Die genannten Aldehyde sind typisch für die frühen Stadien der Verwesung, gefolgt von Butan-1-ol und den Schwefelsulfiden. Phenol wird hauptsächlich in den späteren Verwesungsstadien emittiert. Allerdings werden Phenol und 1-Butanol nicht von der Fliege wahrgenommen, da diese ein Generalist ist und nicht zwischen dem geblähten und aktivem Stadium der Verwesung unterscheiden muss. Daher wird zusätzlich die Geruchswahrnehmung des Speckkäfers Dermestes maculans betrachtet. Die Untersuchung anderer necrophager Insekten können weitere Einblicke in die Zeitabhängigkeit der Volatilemissionen während der Vertebratenverwesung geben. Die im Rahmen dieser Arbeit gewonnenen Ergebnisse erlauben eine Korrelation zwischen Emissionen und Leichenliegezeit und können eine Grundlage für eine volatilenbasierte post mortem Zeitbestimmung für Polizeikräfte sein. Terpene, aliphatische Aldehyde, Furfural und Methoxyphenole werden von erhitztem Holz emittiert. Komponenten aus all diesen Stoffklassen werden von M. cuspidata und M. atrata wahrgenommen, da diese Käfer den Erhitzungszustand von Baumstämmen nach einem Feuer erkennen können, um einen geeigneten Ovipositionsplatz zu finden. A. nigricans nimmt vor allem Methoxyphenole wahr, wohingegen M. atrata und M. acuminata Furfural zur Orientierung verwenden. Diese Unterschiede komplementieren das bekannte Verhalten dieser Käfer in ihrer natürlichen Umgebung, da A. nigricans auf verkohlten Stämmen, die große Mengen von Methoxyphenolen emittieren, seine Eier ablegt, und M. atrata und M. cuspidata auf Stämmen ihre Eier ablegen, die vom Feuer zwar äußerlich verkohlt, aber innerlich nur erhitzt wurden und daher Furfural emittieren. Halbleitergassensoren, die Furfural mit einer ausreichenden Selektivität vermessen können, können Holzbrände schon während ansteigender Temperatur und damit vor der Entzündung detektieren. Derartige Sensoren können sowohl als neuartige Frühwarnsysteme für die holzverarbeitende Industrie als auch für Waldbrandwarnsysteme oder den Haushalt dienen.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Xiong, Jun. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2013. http://tel.archives-ouvertes.fr/tel-01067345.

Der volle Inhalt der Quelle
Annotation:
La modélisation des systèmes dynamiques requiert la prise en compte d'incertitudes liées à l'existence inévitable de bruits (bruits de mesure, bruits sur la dynamique), à la méconnaissance de certains phénomènes perturbateurs mais également aux incertitudes sur la valeur des paramètres (spécification de tolérances, phénomène de vieillissement). Alors que certaines de ces incertitudes se prêtent bien à une modélisation de type statistique comme par exemple les bruits de mesure, d'autres se caractérisent mieux par des bornes, sans autre attribut. Dans ce travail de thèse, motivés par les observations ci-dessus, nous traitons le problème de l'intégration d'incertitudes statistiques et à erreurs bornées pour les systèmes linéaires à temps discret. Partant du filtre de Kalman Intervalle (noté IKF) développé dans [Chen 1997], nous proposons des améliorations significatives basées sur des techniques récentes de propagation de contraintes et d'inversion ensembliste qui, contrairement aux mécanismes mis en jeu par l'IKF, permettent d'obtenir un résultat garanti tout en contrôlant le pessimisme de l'analyse par intervalles. Cet algorithme est noté iIKF. Le filtre iIKF a la même structure récursive que le filtre de Kalman classique et délivre un encadrement de tous les estimés optimaux et des matrices de covariance possibles. L'algorithme IKF précédent évite quant à lui le problème de l'inversion des matrices intervalles, ce qui lui vaut de perdre des solutions possibles. Pour l'iIKF, nous proposons une méthode originale garantie pour l'inversion des matrices intervalle qui couple l'algorithme SIVIA (Set Inversion via Interval Analysis) et un ensemble de problèmes de propagation de contraintes. Par ailleurs, plusieurs mécanismes basés sur la propagation de contraintes sont également mis en oeuvre pour limiter l'effet de surestimation due à la propagation d'intervalles dans la structure récursive du filtre. Un algorithme de détection de défauts basé sur iIKF est proposé en mettant en oeuvre une stratégie de boucle semi-fermée qui permet de ne pas réalimenter le filtre avec des mesures corrompues par le défaut dès que celui-ci est détecté. A travers différents exemples, les avantages du filtre iIKF sont exposés et l'efficacité de l'algorithme de détection de défauts est démontré.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Cruz, Aniana da Rosa de Brito da. „Mental state monitoring for improving the Brain-Computer Interface robustness in a human-centered collaborative control“. Doctoral thesis, 2021. http://hdl.handle.net/10316/95450.

Der volle Inhalt der Quelle
Annotation:
Tese no âmbito do Doutoramento em Engenharia Biomédica, apresentada ao Departamento de Física da Faculdade de Ciências e Tecnologia da Universidade de Coimbra.
A brain-computer interface (BCI) is a useful device for people with severe motor disabilities, and several BCI applications and devices have already been validated, such as communication spellers, wheelchairs, prosthetic devices, etc. However, BCI still has a very limited application in daily real-world tasks due to its low speed, low reliability, and other practical aspects, such as the high user’s workload imposed by continuous focus, and the need for calibration in every session. BCI researchers have been striving to improve the reliability as well as other usability issues. The main goal of this PhD thesis was to research and develop new approaches and new methods to improve the reliability and usability of current BCI systems. This thesis contributes to the BCI field mainly on three topics. The first main contribution is a novel approach based on double error-related potential (ErrP) detection for automatic error correction. We introduce a second ErrP to validate automatic correction. The approach demonstrates the possibility of using ErrPs in a closed-loop human-computer interaction, allowing the user to change or confirm system decisions. The proposed approach was assessed offline and online through a set of experimental tests. Results showed that the proposed approach is effective with a significant increase in classification accuracy and information transfer rate. Secondly, a self-paced P300-based brain-controlled wheelchair (BCW) combined with a collaborative-controller and dynamic-time commands is proposed. The feasibility of this approach was analysed by measuring the impact of these three features on the system reliability, naturalness of interaction, and users’ effort. The proposed method was validated through extensive experiments conducted with able-bodied individuals and individuals with severe motor disabilities. Results showed high feasibility for both able-bodied and motor-disabled participants. The third main issue researched in this thesis is focused on model generalization across session and cross-subject variability. To achieve a good performance, the classification model is usually built from calibration data recorded at the beginning of each session. A novel statistical spatial filter is proposed that takes advantage of the Riemannian distance to extract features that are robust to the non-stationarity of electroencephalographic (EEG) signals. The results show that the proposed method improves generalization across sessions and it is robust to the variation of the amount of training data.
Uma interface cérebro-computador (ICC) é um dispositivo útil para pessoas com deficiências motoras graves e vários dispositivos e aplicações já foram validados, como por exemplo soletradores para comunicação, cadeiras de rodas, dispositivos protéticos, etc. No entanto, a aplicação das ICCs em tarefas do dia-a-dia ainda é limitada devido à sua baixa velocidade, baixa fiabilidade e outros aspetos práticos, como a alta carga de trabalho mental do utilizador imposta pelo foco contínuo e a necessidade de calibrar o sistema em cada sessão. Os investigadores das ICCs têm se esforçado para melhorar a fiabilidade e também outras questões relacionadas com usabilidade. Esta tese pretende investigar e desenvolver novas abordagens e novos métodos para melhorar a fiabilidade e usabilidade dos sistemas ICC. Esta tese contribui para a área das ICCs principalmente em três tópicos. A primeira contribuição é uma nova abordagem baseada na deteção dupla do potencial de erro (ErrP) para correção automática de erros. Introduzimos um segundo ErrP para validar a correção automática. A abordagem demonstra a possibilidade de usar ErrPs numa interação homem-computador em malha fechada, permitindo ao utilizador alterar ou confirmar as decisões do sistema. A abordagem proposta foi avaliada offline e online através de um conjunto de testes experimentais. Os resultados demostraram que a abordagem proposta é eficaz com um aumento significativo na precisão da classificação e na taxa de transferência de informação. Em segundo lugar, é proposta uma interface aplicada a uma cadeira de rodas atuada pelo cérebro baseada no potencial P300 ao ritmo do utilizador combinado com um controlador colaborativo e comandos com janela de tempo dinâmico. A viabilidade dessa abordagem foi testada através da medição do impacto dessas três características na fiabilidade do sistema, na naturalidade da interação e no esforço dos utilizadores. O desempenho dos métodos propostos foi avaliado através de um extenso conjunto de experiências realizadas com indivíduos saudáveis e indivíduos portadores de deficiência motora grave. Os resultados evidenciaram alta fiabilidade tanto para os participantes saudáveis como para os participantes com deficiência motora. A terceira questão abordada nesta tese está focada na generalização do modelo de classificação ErrP entre sessões e entre utilizadores. Para se obter um bom desempenho, o modelo de classificação é normalmente construído com os dados de calibração obtidos no início de cada sessão. É proposto um novo método de filtro espacial que tira partido da distância Riemanniana para extrair características que são robustas à não estacionariedade dos sinais eletroencefalográfico (EEG). Pode concluir-se dos resultados que o método proposto aumenta a generalização entre as sessões e é robusto à variação da quantidade de dados de treino.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie