To see the other types of publications on this topic, follow the link: Error localisation.

Dissertations / Theses on the topic 'Error localisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 20 dissertations / theses for your research on the topic 'Error localisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zaman, Munir uz. "Mobile robot localisation : error modelling, data synchronisation and vision techniques." Thesis, University of Surrey, 2006. http://epubs.surrey.ac.uk/844082/.

Full text
Abstract:
Mobile robot localisation has been, and continues to be, a very active research area. Estimating the position of a mobile robot is fundamental for its navigation and map-building. This thesis addresses some of the problems associated with mobile robot localisation. Three distinct items of research presented in this thesis are (i) A systematic odometry error model for a synchronous drive robot; and (ii) A novel method to synchronise two independent sensor data streams, and (iii) A proposal for an exteroceptive truly odometric sensor system - 'Visiodometry'. Cyclops is a synchronous drive mobile robot. The kinematics causes the path of the robot to curve, with the degree of curvature affected by the orientation of the wheels. A systematic odometry error model is proposed to correct for this. The proposed model is supported both experimentally, and theoretically from modelling the kinematics. Combining sensor data from different sensor data streams is commonly done to improve the accuracy of estimated variables. However, in some cases the sensors are not networked making it impossible to synchronise the data streams. The second item of research proposes a novel method to estimate the time difference in the local clocks of the discrete sensor data from their time-stamps alone. A proposed enhancement to the method improves both the rate of convergence and the precision of the estimate. Results show that the method is more optimum and robust than one based on known methods, including those based on Gaussian assumptions. Wheel odometry is a common method for mobile robot localisation. However, wheel odometry is unreliable if there is wheel slip. In these environments visual odometry has been used. However, the method does not work well on planar surfaces or surfaces with fine texture. It is also unable to accurately detect small motions less than a few centimetres. The third area of research proposes an exteroceptive odometric sensor called 'visiodometry' which is independent of the kinematics and therefore robust to wheel odometry errors. Two methods are proposed (i) a dual camera 'shift vector' method and (ii) a monocular 'roto-translation' method. The results demonstrate that the proposed system can provide odometric localisation data in planar environments to a high precision. The method is based upon extracting global motion estimates of affine transformed images of the ground using the phase correlation method. Experimental results demonstrate that, as a proof-of-concept, this type of sensor input is an alternative genuinely odometric input which has the potential to be comparable in accuracy and precision to wheel odometry in environments where wheel odometry and visual odometry methods are unreliable.
APA, Harvard, Vancouver, ISO, and other styles
2

Landsberg, David. "Methods and measures for statistical fault localisation." Thesis, University of Oxford, 2016. https://ora.ox.ac.uk/objects/uuid:cf737e06-9f12-44fa-94d2-a8d247ad808e.

Full text
Abstract:
Fault localisation is the process of finding the causes of a given error, and is one of the most costly elements of software development. One of the most efficient approaches to fault localisation appeals to statistical methods. These methods are characterised by their ability to estimate how faulty a program artefact is as a function of statistical information about a given program and test suite. However, the major problem facing statistical approaches is their effectiveness -- particularly with respect to finding single (or multiple) faults in large programs typical to the real world. A solution to this problem hinges on discovering new formal properties of faulty programs and developing scalable statistical techniques which exploit them. In this thesis I address this by identifying new properties of faulty programs, developing the formal frameworks and methods which are formally proven to exploit them, and demonstrating that many of our new techniques substantially and statistically significantly outperform competing algorithms at given fault localisation tasks (using p = 0.01) on what (to our knowledge) is one of the largest scale set of experiments in fault localisation to date. This research is thus designed to corroborate the following thesis statement: That the new algorithms presented in this thesis are effective and efficient at software fault localisation and outperform state of the art statistical techniques at a range of fault localisation tasks. In more detail, the major thesis contributions are as follows: 1. We perform a thorough investigation into the existing framework of (sbfl), which currently stands at the cutting edge of statistical fault localisation. To improve on the effectiveness of sbfl, our first contribution is to introduce and motivate many new statistical measures which can be used within this framework. First, we show that many are well motivated to the task of sbfl. Second, we formally prove equivalence properties of large classes of measures. Third, we show that many of the measures perform competitively with the existing measures in experimentation -- in particular our new measure m9185 outperforms all existing measures on average in terms of effectiveness, and along with Kulkzynski2, is in a class of measures which statistically significantly outperforms all other measures at finding a single fault in a program (p = 0.01). 2. Having investigated sbfl, our second contribution is to motivate, introduce, and formally develop a new formal framework which we call probabilistic fault localisation (pfl). pfl is similar to sbfl insofar as it can leverage any suspiciousness measure, and is designed to directly estimate the probability that a given program artefact is faulty. First, we formally prove that pfl is theoretically superior to sbfl insofar as it satisfies and exploits a number of desirable formal properties which sbfl does not. Second, we experimentally show that pfl methods (namely, our measure pfl-ppv) substantially and statistically significantly outperforms the best performing sbfl measures at finding a fault in large multiple fault programs (p = 0.01). Furthermore, we show that for many of our benchmarks it is theoretically impossible to design strictly rational sbfl measures which outperform given pfl techniques. 3. Having addressed the problem of localising a single fault in a pro- gram, we address the problem of localising multiple faults. Accord- ingly, our third major contribution is the introduction and motiva- tion of a new algorithm MOpt(g) which optimises any ranking-based method g (such as pfl/sbfl/Barinel) to the task of multiple fault localisation. First we prove that MOpt(g) formally satisfies and exploits a newly identified formal property of multiple fault optimality. Secondly, we experimentally show that there are values for g such that MOpt(g) substantially and statistically significantly outperforms given ranking-based fault localisation methods at the task of finding multiple faults (p = 0.01). 4. Having developed methods for localising faults as a function of a given test suite, we finally address the problem of optimising test suites for the purposes of fault localisation. Accordingly, we first present an algorithm which leverages model checkers to improve a given test suite by making it satisfy a property of single bug opti- mality. Second, we experimentally show that on small benchmarks single bug optimal test suites can be generated (from scratch) efficiently when the algorithm is used in conjunction with the cbmc model checker, and that the test suite generated can be used effectively for fault localisation.
APA, Harvard, Vancouver, ISO, and other styles
3

Prévost, Raoul. "Décodage et localisation AIS par satellite." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0121/document.

Full text
Abstract:
Le système d'identification automatique (ou système AIS pour automatic identification system) est un système qui permet aux navires et aux stations côtières de s'échanger certaines informations par radio VHF. Ces informations comprennent l'identifiant, le statut, la position, la direction et la vitesse de l'émetteur. L'objectif de cette thèse est de permettre la réception des messages AIS par un satellite en orbite basse sans modifier le matériel existant équipant les navires. Par l'intermédiaire du système AIS, il devient possible de connaitre la position de tous les navires à travers le monde. Plusieurs nouveaux services sont possibles, comme le contrôle maritime global ou, pour les armateurs, la connaissance constante de la position de leurs bateaux. La réception par satellite des signaux AIS est sujette à un niveau de bruit bien plus élevé que lors de la réception de ces signaux au niveau du sol. Ce niveau de bruit rend les méthodes classiques de réception de ces signaux difficilement utilisables. Une première contribution de cette thèse est le développement de nouveaux démodulateurs utilisant des méthodes de correction d'erreurs. Ceux-ci tirent parti de la présence d'un bloc de contrôle de redondance cyclique (CRC) dans les messages ainsi que de certaines informations connues sur la structure des messages et des données. Des adaptations du récepteur proposé ont également été étudiées afin d'intégrer la poursuite de la phase des signaux reçus et de prendre en compte les collisions des messages envoyés simultanément par plusieurs navires. La dernière partie de cette thèse est consacrée à l'étude des méthodes de localisation des navires ne diffusant pas leur position dans leurs messages AIS. Cette localisation tire parti des paramètres des messages reçus tels que le délai de propagation et le décalage en fréquence de la porteuse dû à l'effet Doppler, et d'un modèle de déplacement des navires
The automatic identification system (AIS) is a system allowing ships and coast stations to exchange some information by VHF radio. This information includes the identifier, status, location, direction and speed of the emitter. The aim of this thesis is to allow the reception of AIS messages by low Earth orbit satellites without modifying the existing ship equipments. With this system, it becomes possible to know the position of all ships over the Earth. As a consequence, several new services become available, such as global traffic monitoring or determining boat location (for ship-owners). Satellite reception of AIS signals is subjected to a higher noise level when compared to ground level reception. This noise makes classical demodulation and decoding methods unusable. A first contribution of this thesis is to develop new demodulators using error correction methods. These demodulators take advantage of the presence of a cyclic redundancy check (CRC) block in the messages as well as known information about the structure of messages and data. Generalizations of the proposed receiver have also been studied in order to take into account the phase noise of the received signals and the possible collision of messages sent simultaneously by several vessels. The last part of this thesis is devoted to the study of localization methods for ships that do not transmit their location in AIS messages. This localization takes advantage of information contained in the received messages such as the propagation delay and the carrier frequency shift due to the Doppler effect, and a ship movement model
APA, Harvard, Vancouver, ISO, and other styles
4

Thomas, Robin Rajan. "Optimisation of adaptive localisation techniques for cognitive radio." Diss., University of Pretoria, 2012. http://hdl.handle.net/2263/27076.

Full text
Abstract:
Spectrum, environment and location awareness are key characteristics of cognitive radio (CR). Knowledge of a user’s location as well as the surrounding environment type may enhance various CR tasks, such as spectrum sensing, dynamic channel allocation and interference management. This dissertation deals with the optimisation of adaptive localisation techniques for CR. The first part entails the development and evaluation of an efficient bandwidth determination (BD) model, which is a key component of the cognitive positioning system. This bandwidth efficiency is achieved using the Cramer-Rao lower bound derivations for a single-input-multiple-output (SIMO) antenna scheme. The performances of the single-input-single-output (SISO) and SIMO BD models are compared using three different generalised environmental models, viz. rural, urban and suburban areas. In the case of all three scenarios, the results reveal a marked improvement in the bandwidth efficiency for a SIMO antenna positioning scheme, especially for the 1×3 urban case, where a 62% root mean square error (RMSE) improvement over the SISO system is observed. The second part of the dissertation involves the presentation of a multiband time-of arrival (TOA) positioning technique for CR. The RMSE positional accuracy is evaluated using a fixed and dynamic bandwidth availability model. In the case of the fixed bandwidth availability model, the multiband TOA positioning model is initially evaluated using the two-step maximum-likelihood (TSML) location estimation algorithm for a scenario where line-of-sight represents the dominant signal path. Thereafter, a more realistic dynamic bandwidth availability model has been proposed, which is based on data obtained from an ultra-high frequency spectrum occupancy measurement campaign. The RMSE performance is then verified using the non-linear least squares, linear least squares and TSML location estimation techniques, using five different bandwidths. The proposed multiband positioning model performs well in poor signal-to-noise ratio conditions (-10 dB to 0 dB) when compared to a single band TOA system. These results indicate the advantage of opportunistic TOA location estimation in a CR environment.
Dissertation (MEng)--University of Pretoria, 2012.
Electrical, Electronic and Computer Engineering
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
5

Pečenka, Ondřej. "Výzkum vlivu rozložení vstupní chyby na průběh lokalizačního procesu WSN." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2010. http://www.nusl.cz/ntk/nusl-218263.

Full text
Abstract:
The diploma thesis is focused on two localization algorithms, iterative algorithm, and a linked algorithm simulated in MATLAB. Further, the investigation of the influence of input errors on the errors in localization of sensor nodes examined algorithms and explore possible relationships between the input errors and localization errors. Subsequently are submitted possible ways to optimize and their results.
APA, Harvard, Vancouver, ISO, and other styles
6

Bekkouche, Mohammed. "Combinaison des techniques de Bounded Model Checking et de programmation par contraintes pour l'aide à la localisation d'erreurs : exploration des capacités des CSP pour la localisation d'erreurs." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4096/document.

Full text
Abstract:
Un vérificateur de modèle peut produire une trace de contreexemple, pour un programme erroné, qui est souvent difficile à exploiter pour localiser les erreurs dans le code source. Dans ma thèse, nous avons proposé un algorithme de localisation d'erreurs à partir de contreexemples, nommé LocFaults, combinant les approches de Bounded Model Checking (BMC) avec un problème de satisfaction de contraintes (CSP). Cet algorithme analyse les chemins du CFG (Control Flow Graph) du programme erroné pour calculer les sous-ensembles d'instructions suspectes permettant de corriger le programme. En effet, nous générons un système de contraintes pour les chemins du graphe de flot de contrôle pour lesquels au plus k instructions conditionnelles peuvent être erronées. Ensuite, nous calculons les MCSs (Minimal Correction Sets) de taille limitée sur chacun de ces chemins. La suppression de l'un de ces ensembles de contraintes donne un sous-ensemble satisfiable maximal, en d'autres termes, un sous-ensemble maximal de contraintes satisfaisant la postcondition. Pour calculer les MCSs, nous étendons l'algorithme générique proposé par Liffiton et Sakallah dans le but de traiter des programmes avec des instructions numériques plus efficacement. Cette approche a été évaluée expérimentalement sur des programmes académiques et réalistes
A model checker can produce a trace of counter-example for erroneous program, which is often difficult to exploit to locate errors in source code. In my thesis, we proposed an error localization algorithm from counter-examples, named LocFaults, combining approaches of Bounded Model-Checking (BMC) with constraint satisfaction problem (CSP). This algorithm analyzes the paths of CFG (Control Flow Graph) of the erroneous program to calculate the subsets of suspicious instructions to correct the program. Indeed, we generate a system of constraints for paths of control flow graph for which at most k conditional statements can be wrong. Then we calculate the MCSs (Minimal Correction Sets) of limited size on each of these paths. Removal of one of these sets of constraints gives a maximal satisfiable subset, in other words, a maximal subset of constraints satisfying the postcondition. To calculate the MCSs, we extend the generic algorithm proposed by Liffiton and Sakallah in order to deal with programs with numerical instructions more efficiently. This approach has been experimentally evaluated on a set of academic and realistic programs
APA, Harvard, Vancouver, ISO, and other styles
7

Lu, Wenjie. "Contributions to Lane Marking Based Localization for Intelligent Vehicles." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112017/document.

Full text
Abstract:
Les applications pour véhicules autonomes et les systèmes d’aide avancée à la conduite (Advanced Driving Assistance Systems - ADAS) mettent en oeuvre des processus permettant à des systèmes haut niveau de réaliser une prise de décision. Pour de tels systèmes, la connaissance du positionnement précis (ou localisation) du véhicule dans son environnement est un pré-requis nécessaire. Cette thèse s’intéresse à la détection de la structure de scène, au processus de localisation ainsi qu’à la modélisation d’erreurs. A partir d’un large spectre fonctionnel de systèmes de vision, de l’accessibilité d’un système de cartographie ouvert (Open Geographical Information Systems - GIS) et de la large diffusion des systèmes de positionnement dans les véhicules (Global Positioning System - GPS), cette thèse étudie la performance et la fiabilité d’une méthode de localisation utilisant ces différentes sources. La détection de marquage sur la route réalisée par caméra monoculaire est le point de départ permettant de connaître la structure de la scène. En utilisant, une détection multi-noyau avec pondération hiérarchique, la méthode paramétrique proposée effectue la détection et le suivi des marquages sur la voie du véhicule en temps réel. La confiance en cette source d’information a été quantifiée par un indicateur de vraisemblance. Nous proposons ensuite un système de localisation qui fusionne des informations de positionnement (GPS), la carte (GIS) et les marquages détectés précédemment dans un cadre probabiliste basé sur un filtre particulaire. Pour ce faire, nous proposons d’utiliser les marquages détectés non seulement dans l’étape de mise en correspondance des cartes mais aussi dans la modélisation de la trajectoire attendue du véhicule. La fiabilité du système de localisation, en présence d’erreurs inhabituelles dans les différentes sources d’information, est améliorée par la prise en compte de différents indicateurs de confiance. Ce mécanisme est par la suite utilisé pour identifier les sources d’erreur. Cette thèse se conclut par une validation expérimentale des méthodes proposées dans des situations réelles de conduite. Leurs performances ont été quantifiées en utilisant un véhicule expérimental et des données en libre accès sur internet
Autonomous Vehicles (AV) applications and Advanced Driving Assistance Systems (ADAS) relay in scene understanding processes allowing high level systems to carry out decision marking. For such systems, the localization of a vehicle evolving in a structured dynamic environment constitutes a complex problem of crucial importance. Our research addresses scene structure detection, localization and error modeling. Taking into account the large functional spectrum of vision systems, the accessibility of Open Geographical Information Systems (GIS) and the widely presence of Global Positioning Systems (GPS) onboard vehicles, we study the performance and the reliability of a vehicle localization method combining such information sources. Monocular vision–based lane marking detection provides key information about the scene structure. Using an enhanced multi-kernel framework with hierarchical weights, the proposed parametric method performs, in real time, the detection and tracking of the ego-lane marking. A self-assessment indicator quantifies the confidence of this information source. We conduct our investigations in a localization system which tightly couples GPS, GIS and lane makings in the probabilistic framework of Particle Filter (PF). To this end, it is proposed the use of lane markings not only during the map-matching process but also to model the expected ego-vehicle motion. The reliability of the localization system, in presence of unusual errors from the different information sources, is enhanced by taking into account different confidence indicators. Such a mechanism is later employed to identify error sources. This research concludes with an experimental validation in real driving situations of the proposed methods. They were tested and its performance was quantified using an experimental vehicle and publicly available datasets
APA, Harvard, Vancouver, ISO, and other styles
8

Viandier, Nicolas. "Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l’amélioration des performances de localisation." Thesis, Ecole centrale de Lille, 2011. http://www.theses.fr/2011ECLI0006/document.

Full text
Abstract:
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l’environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l’atmosphère sont connues. En revanche, il est plus difficile de prévoir l’impact de l’environnement proche de l’antenne, composé d’obstacles urbains. L’axe poursuivit par le LEOST et le LAGIS consiste à appréhender l’environnement et à utiliser cette information en complément de l’information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l’erreur, plusieurs modèles d’erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d’état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L’évolution du modèle de bruit permet de s'adapter à l’environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles
Today, the GNSS are largely present in the transport field. Currently, the scientific community aims to develop transport applications with a high accuracy, availability and integrity. These systems offer a continuous positioning service. Performances are defined by the system parameters but also by signal environment propagation. The atmosphere propagation characteristics are well known. However, it is more difficult to anticipate and analyze the impact of the propagation environment close to the antenna which can be composed, for instance, of urban obstacles or vegetation.Since several years, the LEOST and the LAGIS research axes are driven by the understanding of the propagation environment and its use as supplementary information to help the GNSS receiver to be more pertinent. This approach aims to reduce the number of sensors in the localisation system, and consequently reduces its complexity and cost. The work performed in this thesis is devoted to provide more realistic pseudorange error models and reception channel model. After, a step of observation error characterization, several pseudorange error models have been proposed. These models are the finite gaussian mixture model and the Dirichlet process mixture. The model parameters are then estimated jointly with the state vector containing position by using adapted filtering solution like the Rao-Blackwellized particle filter. The noise model evolution allows adapting to an urban environment and consequently providing a position more accurate.Each step of this work has been tested and evaluated on simulation data and real data
APA, Harvard, Vancouver, ISO, and other styles
9

Ménétrier, Benjamin. "Utilisation d'une assimilation d'ensemble pour modéliser des covariances d'erreur d'ébauche dépendantes de la situation météorologique à échelle convective." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0052/document.

Full text
Abstract:
L'assimilation de données vise à fournir aux modèles de prévision numérique du temps un état initial de l'atmosphère le plus précis possible. Pour cela, elle utilise deux sources d'information principales : des observations et une prévision récente appelée "ébauche", toutes deux entachées d'erreurs. La distribution de ces erreurs permet d'attribuer un poids relatif à chaque source d'information, selon la confiance que l'on peut lui accorder, d'où l'importance de pouvoir estimer précisément les covariances de l'erreur d'ébauche. Les méthodes de type Monte-Carlo, qui échantillonnent ces covariances à partir d'un ensemble de prévisions perturbées, sont considérées comme les plus efficaces à l'heure actuelle. Cependant, leur coût de calcul considérable limite de facto la taille de l'ensemble. Les covariances ainsi estimées sont donc contaminées par un bruit d'échantillonnage, qu'il est nécessaire de filtrer avant toute utilisation. Cette thèse propose des méthodes de filtrage du bruit d'échantillonnage dans les covariances d'erreur d'ébauche pour le modèle à échelle convective AROME de Météo-France. Le premier objectif a consisté à documenter la structure des covariances d'erreur d'ébauche pour le modèle AROME. Une assimilation d'ensemble de grande taille a permis de caractériser la nature fortement hétérogène et anisotrope de ces covariances, liée au relief, à la densité des observations assimilées, à l'influence du modèle coupleur, ainsi qu'à la dynamique atmosphérique. En comparant les covariances estimées par deux ensembles indépendants de tailles très différentes, le bruit d'échantillonnage a pu être décrit et quantifié. Pour réduire ce bruit d'échantillonnage, deux méthodes ont été développées historiquement, de façon distincte : le filtrage spatial des variances et la localisation des covariances. On montre dans cette thèse que ces méthodes peuvent être comprises comme deux applications directes du filtrage linéaire des covariances. L'existence de critères d'optimalité spécifiques au filtrage linéaire de covariances est démontrée dans une seconde partie du travail. Ces critères présentent l'avantage de n'impliquer que des grandeurs pouvant être estimées de façon robuste à partir de l'ensemble. Ils restent très généraux et l'hypothèse d'ergodicité nécessaire à leur estimation n'est requise qu'en dernière étape. Ils permettent de proposer des algorithmes objectifs de filtrage des variances et pour la localisation des covariances. Après un premier test concluant dans un cadre idéalisé, ces nouvelles méthodes ont ensuite été évaluées grâce à l'ensemble AROME. On a pu montrer que les critères d'optimalité pour le filtrage homogène des variances donnaient de très bons résultats, en particulier le critère prenant en compte la non-gaussianité de l'ensemble. La transposition de ces critères à un filtrage hétérogène a permis une légère amélioration des performances, à un coût de calcul plus élevé cependant. Une extension de la méthode a ensuite été proposée pour les composantes du tenseur de la hessienne des corrélations locales. Enfin, les fonctions de localisation horizontale et verticale ont pu être diagnostiquées, uniquement à partir de l'ensemble. Elles ont montré des variations cohérentes selon la variable et le niveau concernés, et selon la taille de l'ensemble. Dans une dernière partie, on a évalué l'influence de l'utilisation de variances hétérogènes dans le modèle de covariances d'erreur d'ébauche d'AROME, à la fois sur la structure des covariances modélisées et sur les scores des prévisions. Le manque de réalisme des covariances modélisées et l'absence d'impact positif pour les prévisions soulèvent des questions sur une telle approche. Les méthodes de filtrage développées au cours de cette thèse pourraient toutefois mener à d'autres applications fructueuses au sein d'approches hybrides de type EnVar, qui constituent une voie prometteuse dans un contexte d'augmentation de la puissance de calcul disponible
Data assimilation aims at providing an initial state as accurate as possible for numerical weather prediction models, using two main sources of information : observations and a recent forecast called the “background”. Both are affected by systematic and random errors. The precise estimation of the distribution of these errors is crucial for the performance of data assimilation. In particular, background error covariances can be estimated by Monte-Carlo methods, which sample from an ensemble of perturbed forecasts. Because of computational costs, the ensemble size is much smaller than the dimension of the error covariances, and statistics estimated in this way are spoiled with sampling noise. Filtering is necessary before any further use. This thesis proposes methods to filter the sampling noise of forecast error covariances. The final goal is to improve the background error covariances of the convective scale model AROME of Météo-France. The first goal is to document the structure of background error covariances for AROME. A large ensemble data assimilation is set up for this purpose. It allows to finely characterize the highly heterogeneous and anisotropic nature of covariances. These covariances are strongly influenced by the topography, by the density of assimilated observations, by the influence of the coupling model, and also by the atmospheric dynamics. The comparison of the covariances estimated from two independent ensembles of very different sizes gives a description and quantification of the sampling noise. To damp this sampling noise, two methods have been historically developed in the community : spatial filtering of variances and localization of covariances. We show in this thesis that these methods can be understood as two direct applications of the theory of linear filtering of covariances. The existence of specific optimality criteria for the linear filtering of covariances is demonstrated in the second part of this work. These criteria have the advantage of involving quantities that can be robustly estimated from the ensemble only. They are fully general and the ergodicity assumption that is necessary to their estimation is required in the last step only. They allow the variance filtering and the covariance localization to be objectively determined. These new methods are first illustrated in an idealized framework. They are then evaluated with various metrics, thanks to the large ensemble of AROME forecasts. It is shown that optimality criteria for the homogeneous filtering of variances yields very good results, particularly with the criterion taking the non-gaussianity of the ensemble into account. The transposition of these criteria to a heterogeneous filtering slightly improves performances, yet at a higher computational cost. An extension of the method is proposed for the components of the local correlation hessian tensor. Finally, horizontal and vertical localization functions are diagnosed from the ensemble itself. They show consistent variations depending on the considered variable and level, and on the ensemble size. Lastly, the influence of using heterogeneous variances into the background error covariances model of AROME is evaluated. We focus first on the description of the modelled covariances using these variances and then on forecast scores. The lack of realism of the modelled covariances and the negative impact on scores raise questions about such an approach. However, the filtering methods developed in this thesis are general. They are likely to lead to other prolific applications within the framework of hybrid approaches, which are a promising way in a context of growing computational resources
APA, Harvard, Vancouver, ISO, and other styles
10

Vu, Dinh Thang. "Outils statistiques pour le positionnement optimal de capteurs dans le contexte de la localisation de sources." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00638778.

Full text
Abstract:
Cette thèse porte sur l'étude du positionnement optimale des réseaux de capteurs pour la localisation de sources. Nous avons étudié deux approches: l'approche basée sur les performances de l'estimation en termes d'erreur quadratique moyenne et l'approche basée sur le seuil statistique de résolution (SSR).Pour le première approche, nous avons considéré les bornes inférieures de l'erreur quadratique moyenne qui sont utilisés généralement pour évaluer la performance d'estimation indépendamment du type d'estimateur considéré. Nous avons étudié deux types de bornes: la borne Cramér-Rao (BCR) pour le modèle où les paramètres sont supposés déterministes et la borne Weiss-Weinstein (BWW) pour le modèle où les paramètres sont supposés aléatoires. Nous avons dérivé les expressions analytiques de ces bornes pour développer des outils statistiques afin d'optimiser la géométrie des réseaux de capteurs. Par rapport à la BCR, la borne BWW peut capturer le décrochement de l'EQM des estimateurs dans la zone non-asymptotique. De plus, les expressions analytiques de la BWW pour un modèle Gaussien général à moyenne paramétré ou à covariance matrice paramétré sont donnés explicitement. Basé sur ces expressions analytiques, nous avons étudié l'impact de la géométrie des réseaux de capteurs sur les performances d'estimation en utilisant les réseaux de capteurs 3D et 2D pour deux modèles des observations concernant les signaux sources: (i) le modèle déterministe et (ii) le modèle stochastique. Nous en avons ensuite déduit des conditions concernant les propriétés d'isotropie et de découplage.Pour la deuxième approche, nous avons considéré le seuil statistique de résolution qui caractérise la séparation minimale entre les deux sources. Dans cette thèse, nous avons étudié le SSR pour le contexte Bayésien moins étudié dans la littérature. Nous avons introduit un modèle des observations linéarisé basé sur le critère de probabilité d'erreur minimale. Ensuite, nous avons présenté deux approches Bayésiennes pour le SSR, l'une basée sur la théorie de l'information et l'autre basée sur la théorie de la détection. Ces approches pourront être utilisée pour améliorer la capacité de résolution des systèmes.
APA, Harvard, Vancouver, ISO, and other styles
11

Barbarella, Elena. "Towards the localization and characterization of defects based on the Modified error in Constitutive Relation : focus on the buckling test and comparison with other type of experiments." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN066/document.

Full text
Abstract:
Des nombreuses industries composites cherchent à étendre le champ d'application des composites structuraux à fibres continues pour d'autre marché que l'aéronautique. Être compétitif sur ces marchés potentiels, tel l'automobile, implique de se conformer à des contraintes différentes; de coût, de temps de mise en œuvre, de trace écologique. Dans ce cadre les résines thermodurcissables sont remplacées par des résines thermoplastiques permettant des temps de cycle cours. Ces temps de cycle cours favorisent l'apparition de défauts potentiellement important et une question récurrente dans ce cadre est: Comment traiter des défauts? Un des aspects de cette question est celui de la détection et de la caractérisation des défauts. L'approche actuelle est celle des techniques non destructives. Celles ci sont longues, coûteuses et complexes et apparaissent donc mal adaptées aux contraintes de coûts et de temps caractéristique de la plupart des produits grands diffusions. Ce problème a motivé ce travail de thèse: est-il possible de détecter et d'estimer l'effet des défauts sans avoir recours à des techniques d'essais non destructifs complexes et coûteuses? Une réponse acceptable pourrait conduire à moins de précision, mais devrait fournir des informations quantitatives suffisantes pour les applications. La voie étudiée dans cette thèse est celle de l'exploitation par approches inverse d'essais mécaniques statiques suivis par mesure de champs par corrélation d'images numériques. Seuls la localisation et la caractérisation de grands défauts est visée. Des essais de flambement ont été choisis en raison de leur sensibilité supposée aux défauts. Parmi les approches inverses, nous nous sommes concentrés sur la méthode de l'erreur en relation de comportement modifiée (MCRE). En effet cette méthode a, par le passé, montrée de très bonnes propriétés de localisation dans le cas d'essais de vibrations couvrant plusieurs fréquences propres. En vue d'obtenir une formulation simple et rapide nous avons privilégié une exploitation approchée des essais par l'intermédiaire d'une approche linéarisée du flambage. Une extension de la MCRE dans ce cadre a été proposée. Cette formulation pose, notamment la difficulté de traiter des résultats expérimentaux qui se présentent non pas sous la forme d'une réponse de flambage pure mais, en raison des défauts géométriques, d'une réponse non-linéaire dés le début des essais. Pour essayer de contourner cette difficulté une exploitation des essais au moyen du diagramme de Southwell a été utilisée. Elle permet, au moins pour des éprouvettes élancées, de déterminer la charge critique théorique d'une éprouvette sans défauts géométriques mais avec défauts matériels. La stéréo corrélation d'images numériques (StereoDIC) est exploitée pour reconstruire la déformée la forme de l'échantillon pendant le test. Les intérêts et les limites de la méthodologie sont discutés sur la base d'essais numériques et l'essai flambage est comparé aux essais de traction, flexion ou de vibration. Il est montré que l'exploitation d'essais de flambage par l'approche proposée est efficace au moins dans le cas d'imperfections géométriques modérées. Finalement la méthode est exploitée dans le cas d'essais expérimentaux à la fois pour un spécimen presque parfait et pour une pièce défectueuse, où une zone d'ondulation de la fibre est introduite. Les résultats obtenus sont encourageants
Composite materials are nowadays extending their operational field to industrial applications other than aeronautics. New potential markets, such as automotive, imply the need to comply with different constraints; reduced cost and production time become more binding, taking the lead over the complete absence of defects. The drawback to fast automatized procedure is the higher defectiveness of the components produced, a deeper control of the part is therefore needed. Non-destructive techniques are expensive both in terms of cost and time and therefore the main question we tried to answer in this thesis is: is it possible to detect and estimate the effect of defects without resorting to the complex and time-consuming NDT techniques? An acceptable answer may potentially lead to a lower precision but should guarantee sufficient quantitative information for these applications. The thesis aims at exploring possibilities to use classical mechanical test combined with Digital Image correlation and inverse procedure to localize and characterized possible (large) defects. Buckling tests have been chosen at first due their supposed sensitivity to defects. Among the possible inverse technique, we have chosen to extend the so-called Modified Error in Constitutive Relation to the case of buckling because, in the case of vibration tests performed with several frequencies, the MCRE proved to have very good localization properties. The dedicated formulation of the MCRE for linearized buckling requires a post-processing of the non-linear experimental results. The Southwell plot is here employed to reconstruct the eigenvalue, the critical load, of the equivalent eigenvalue problem (i.e. the solution of the problem with material defect and no geometrical ones) and the Stereo Digital Image Correlation (StereoDIC) is exploited to reconstruct the deformed shape of the specimen during the test, used as mode. The interests and limits of the methodology are discussed notably through the comparison of numerical results using the MCRE in case of traction, flexion or vibration tests. It is shown that the linearized buckling based MCRE technique proves well for pseudo-experimental measurements at least for moderate geometrical imperfections. In addition first experiments have been performed; the defects are characterized from real experimental specimens, both for a nominally perfect specimen and for a defective one, where a zone of fibre waviness is induced. Stereo Digital Image Correlation (StereoDIC) is exploited to reconstruct the deformed shape of the specimen during the test, this shape being used as an approximation of the buckling mode. While on the first one no defects are detected, on the flawed specimen the localized area is in reasonable agreement with the area affected by fibre undulations
APA, Harvard, Vancouver, ISO, and other styles
12

Boskovitz, Agnes, and abvi@webone com au. "Data Editing and Logic: The covering set method from the perspective of logic." The Australian National University. Research School of Information Sciences and Engineering, 2008. http://thesis.anu.edu.au./public/adt-ANU20080314.163155.

Full text
Abstract:
Errors in collections of data can cause significant problems when those data are used. Therefore the owners of data find themselves spending much time on data cleaning. This thesis is a theoretical work about one part of the broad subject of data cleaning - to be called the covering set method. More specifically, the covering set method deals with data records that have been assessed by the use of edits, which are rules that the data records are supposed to obey. The problem solved by the covering set method is the error localisation problem, which is the problem of determining the erroneous fields within data records that fail the edits. In this thesis I analyse the covering set method from the perspective of propositional logic. I demonstrate that the covering set method has strong parallels with well-known parts of propositional logic. The first aspect of the covering set method that I analyse is the edit generation function, which is the main function used in the covering set method. I demonstrate that the edit generation function can be formalised as a logical deduction function in propositional logic. I also demonstrate that the best-known edit generation function, written here as FH (standing for Fellegi-Holt), is essentially the same as propositional resolution deduction. Since there are many automated implementations of propositional resolution, the equivalence of FH with propositional resolution gives some hope that the covering set method might be implementable with automated logic tools. However, before any implementation, the other main aspect of the covering set method must also be formalised in terms of logic. This other aspect, to be called covering set correctibility, is the property that must be obeyed by the edit generation function if the covering set method is to successfully solve the error localisation problem. In this thesis I demonstrate that covering set correctibility is a strengthening of the well-known logical properties of soundness and refutation completeness. What is more, the proofs of the covering set correctibility of FH and of the soundness / completeness of resolution deduction have strong parallels: while the proof of soundness / completeness depends on the reduction property for counter-examples, the proof of covering set correctibility depends on the related lifting property. In this thesis I also use the lifting property to prove the covering set correctibility of the function defined by the Field Code Forest Algorithm. In so doing, I prove that the Field Code Forest Algorithm, whose correctness has been questioned, is indeed correct. The results about edit generation functions and covering set correctibility apply to both categorical edits (edits about discrete data) and arithmetic edits (edits expressible as linear inequalities). Thus this thesis gives the beginnings of a theoretical logical framework for error localisation, which might give new insights to the problem. In addition, the new insights will help develop new tools using automated logic tools. What is more, the strong parallels between the covering set method and aspects of logic are of aesthetic appeal.
APA, Harvard, Vancouver, ISO, and other styles
13

Balakrishnan, Arjun. "Integrity Analysis of Data Sources in Multimodal Localization System." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG060.

Full text
Abstract:
Les véhicules intelligents sont un élément clé pour des systèmes de transport plus sûrs, efficaces et accessibles à travers le monde. En raison de la multitude de sources de données et de processus associés aux véhicules intelligents, la fiabilité de l'ensemble du système dépend fortement de la possibilité d'erreurs ou de mauvaises performances observées dans ses composants. Dans notre travail, nous nous intéressons à la tâche critique de localisation des véhicules intelligents et relevons les défis de la surveillance de l'intégrité des sources de données utilisées dans la localisation. La contribution clé de notre recherche est la proposition d'un nouveau protocole d'intégrité en combinant les concepts d'intégrité des systèmes d'information et les concepts d'intégrité existants dans les Systèmes de Transport Intelligents (STI). Un cadre de surveillance de l'intégrité basé sur le protocole d'intégrité proposé qui peut gérer les problèmes de localisation multimodale est développé. Dans la première étape, une preuve de concept pour ce cadre est développée sur la base d'une estimation de cohérence croisée des sources de données à l'aide de modèles polynomiaux. Sur la base des observations de la première étape, une représentation des données «Feature Grid» est proposée dans la deuxième étape et un prototype généralisé pour le cadre est mis en œuvre. Le cadre est testé sur les autoroutes ainsi que dans des scénarios urbains complexes pour démontrer que le cadre proposé est capable de fournir des estimations d'intégrité continue des sources de données multimodales utilisées dans la localisation intelligente des véhicules
Intelligent vehicles are a key component in humanity’s vision for safer, efficient, and accessible transportation systems across the world. Due to the multitude of data sources and processes associated with Intelligent vehicles, the reliability of the total system is greatly dependent on the possibility of errors or poor performances observed in its components. In our work, we focus on the critical task of localization of intelligent vehicles and address the challenges in monitoring the integrity of data sources used in localization. The primary contribution of our research is the proposition of a novel protocol for integrity by combining integrity concepts from information systems with the existing integrity concepts in the field of Intelligent Transport Systems (ITS). An integrity monitoring framework based on the theorized integrity protocol that can handle multimodal localization problems is formalized. As the first step, a proof of concept for this framework is developed based on cross-consistency estimation of data sources using polynomial models. Based on the observations from the first step, a 'Feature Grid' data representation is proposed in the second step and a generalized prototype for the framework is implemented. The framework is tested in highways as well as complex urban scenarios to demonstrate that the proposed framework is capable of providing continuous integrity estimates of multimodal data sources used in intelligent vehicle localization
APA, Harvard, Vancouver, ISO, and other styles
14

Urban, Daniel. "Lokalizace mobilního robota v prostředí." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2018. http://www.nusl.cz/ntk/nusl-385923.

Full text
Abstract:
This diploma thesis deals with the problem of mobile robot localisation in the environment based on current 2D and 3D sensor data and previous records. Work is focused on detecting previously visited places by robot. The implemented system is suitable for loop detection, using the Gestalt 3D descriptors. The output of the system provides corresponding positions on which the robot was already located. The functionality of the system has been tested and evaluated on LiDAR data.
APA, Harvard, Vancouver, ISO, and other styles
15

Kinnaert, Xavier. "Data processing of induced seismicity : estimation of errors and of their impact on geothermal reservoir models." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAH013/document.

Full text
Abstract:
La localisation de séismes induits ainsi que les mécanismes au foyer associés sont des outils fréquemment utilisés afin, entre autres, d’imager la structure d’un réservoir. Cette thèse présente une technique permettant de quantifier les erreurs associées à ces deux paramètres. Par cette méthode, incertitudes et imprécisions sont distinguées. La méthode a été appliquée aux sites de Soultz et de Rittershoffen pour étudier l’impact de plusieurs critères sur la localisation de la sismicité induite. Ainsi, il a été montré que l’utilisation de capteurs installés profondément dans des puits et qu’une bonne couverture sismique azimutale réduit sérieusement les incertitudes de localisation. Les incertitudes du modèle de vitesse, représentées par une distribution gaussienne des modèles avec un écart de 5% autour du modèle de référence, multiplient les incertitudes de localisation par un facteur 2 à 3. Des simplifications utilisées pour le calcul ou une mauvaise connaissance du milieu peuvent mener à des imprécisions de l’ordre de 10% spatialement non isotropes. Ainsi, les structures du sous-sol peuvent être déformées dans les interprétations. L’application d’un tir de calibration peut néanmoins corriger ce fait en grande partie. L’étude d’erreurs associées aux mécanismes au foyer ne semble cependant pas conduire aux mêmes conclusions. Le biais angulaire peut certes être augmenté par l’omission de la faille dans le modèle de vitesse, mais dans plusieurs cas il est le même que dans le cas idéal voire diminué. En outre, une meilleure couverture sismique améliorerait toujours le mécanisme au foyer obtenu. Ainsi, il n’est pas conseillé d’imager un réservoir en n’utilisant que la localisation de séismes, mais une combinaison de plusieurs paramètres sismiques pourrait s’avérer efficace. La méthode appliquée dans le cadre de cette thèse pourra servir pour d’autres sites à condition d’en avoir une bonne connaissance a priori
Induced seismicity location and focal mechanisms are commonly used to image the sub-surface designin reservoirs among other tasks. In this Ph.D. the inaccuracies and uncertainties on earthquake location and focal mechanisms are quantified using a three-step method. The technique is applied to the geothermal sites of Soultz and Rittershoffen to investigate the effect of several criteria on thee arthquake location. A good azimuthal seismic coverage and the use of seismic down-hole sensors seriously decrease the location uncertainty. On the contrary, velocity model uncertainties, represented by a 5% Gaussian distribution of the velocity model around the reference model, will multiply location uncertainties by a factor of 2 to 3. An incorrect knowledge of the sub-surface or the simplifications performed before the earthquake location can lead to biases of 10% of the vertical distance separating the source and the stations with a non-isotropic spatial distribution. Hence the sub-surface design maybe distorted in the interpretations. To prevent from that fact, the calibration shot method was proved to be efficient. The study on focal mechanism errors seems to lead to different conclusions. Obviously, the angular bias may be increased by neglecting the fault in the velocity. But, it may also be the same as or even smaller than the bias calculated for the case simulating a perfect knowledge of the medium of propagation. Furthermore a better seismic coverage always leads to smaller angular biases. Hence,it is worth advising to use more than only earthquake location in order to image a reservoir. Other geothermal sites and reservoirs may benefit from the method developed here
Die korrekte Lokalisierung von induzierter Seismizität und den dazugehörigen Herdflächenlösungensind sehr wichtige Parameter. So werden zum Beispiel die Verteilung der Erdbeben und die Orientierung ihrer Herdflächenlösungen dazu benutzt um in der Tiefe liegende Reservoirs zulokalisieren und abzubilden. In dieser Doktorarbeit wird eine Technik vorgeschlagen um diemethodisch bedingten Fehler zu quantifizieren. Mit dieser Methode werden die verschiedenen Fehlerquellen, die Unsicherheiten und die Fehler im Modell getrennt. Die Technik wird für die geothermischen Felder in Soultz und in Rittershoffen benutzt um den Einfluss verschiedener Parameter (Annahmen) auf die Lokalisierung der induzierten Seismizität zu bestimmen. Es wurde festgestellt, dass Bohrlochseismometer und eine gute azimutale Verteilung der seismischen Stationen die Unbestimmtheiten verkleinern. Die Geschwindigkeitsunbestimmheiten, die durch eine Gauss-Verteilung mit 5% Fehler dargestellt werden, vervielfachen die Lokalisierungsungenauigkeiten um einen Faktor 2 bis 3. Eine ungenaue Kenntnis des Untergrunds oder die verwendete vereinfachte Darstellung der Geschwindigkeitsverhältnisse im Untergrund (notwendig um die synthetischen Rechnungen durchführen zu können) führen zu anisotropen Abweichungen und Fehlern in der Herdtiefe von bis zu 10%. Diese können die Interpretationen des Untergrunds deutlich verfälschen. Ein “calibration shot” kann diese Fehler korrigieren. Leider können die Fehler für die Herdflächenlösungen nicht in derselben Weise korrigiert werden. Es erscheint daher als keine gute Idee, ein Reservoir nur über die Lokalisierung von Erdbeben zu bestimmen. Eine Kombination mehrerer seismischer Methoden scheint angezeigt. Die hier besprochene Methode kann als Grundlage dienen für die Erkundung anderer (geothermischer)
APA, Harvard, Vancouver, ISO, and other styles
16

Routledge, Andrew James. "The internal structure of consciousness." Thesis, University of Manchester, 2015. https://www.research.manchester.ac.uk/portal/en/theses/the-internal-structure-of-consciousness(4e91f257-fa9f-4a53-81be-e30cdb0002a5).html.

Full text
Abstract:
Our understanding of the physical world has evolved drastically over the last century and the microstructure described by subatomic physics has been found to be far stranger than we could previously have envisaged. However, our corresponding model of experience and its structure has remained largely untouched. The orthodox view conceives of our experience as made up of a number of different simpler experiences that are largely independent of one another. This traditional atomistic picture is deeply entrenched. But I argue that it is wrong. Our experience is extraordinarily rich and complex. In just a few seconds we may see, hear and smell a variety of things, feel the position and movement of our body, experience a blend of emotions, and undergo a series of conscious thoughts. This very familiar fact generates three puzzling questions. The first question concerns the way in which all these different things are experienced together. What we see, for example, is experienced alongside what we hear. Our visual experience does not occur in isolation from our auditory experience, sealed off and separate. It is fused together in some sense. It is co-conscious. We may then ask the Unity Question: What does the unity of consciousness consist in? The second question is the Counting Question: How many experiences does a unified region of consciousness involve? Should we think of our experience at a time as consisting in just one very rich experience, in a handful of sense-specific experiences, or in many very simple experiences? How should we go about counting experiences? Is there any principled way to do so?The third and final question, the Dependency Question, concerns the degree of autonomy of the various different aspects of our unified experience. For example, would one's visual experience be the same if one's emotional experience differed? Is the apparent colour of a sunset affected by the emotional state that we are in at the time? I offer a new answer to the Unity Question and argue that it has striking implications for the way that we address the Counting Question and the Dependency Question. In particular, it supports the view that our experience at a time consists in just one very rich experience in which all of the different aspects are heavily interdependent.
APA, Harvard, Vancouver, ISO, and other styles
17

Hartig, Michael. "Loi de van der Waals-London pour les systèmes d'atomes et de molécules relativistes." Thesis, Toulon, 2019. http://www.theses.fr/2019TOUL0009.

Full text
Abstract:
On considère un système constitué de plusieurs atomes où les noyaux sont supposés fixes et ponctuels. Les particules interagissent via le potentiel de Coulomb et les électrons ont une énergie cinétique pseudo-relativiste donnée par (p2+m2)1/2-m. On démontre la loi de van der Waals-London qui dit que l'énergie d'interaction entre atomes neutres décroit comme |D|-6 où |D| est la distance entre atomes. Nous calculons rigoureusement tous les termes de l'énergie de liaison jusqu'à l'ordre |D|-9 avec un terme d'erreur en O(|D|-10). Comme étape intermédiaire, nous établissons la décroissance exponentielle des fonctions propres de l'opérateur de Schrödinger à plusieurs particules avec les symétries imposées par le principe de Pauli, et des estimations sur le terme d'erreur de localisation. Nous montrons de plus la loi de van der Waals-London pour l'opérateur de Dirac projeté connu sous le nom d'opérateur de Brown et Ravenhall. Dans ce dernier cas on obtient un terme d'erreur en O(|D|-7)
We consider a multiatomic system where the nuclei are assumed to be point charges at fixed positions.Particles interact via Coulomb potential and electrons have relativistic kinetic energy given by (p2+m2)1/2-m.We prove the van der Waals-London law, which states that the interaction energy between neutral atoms decays as the sixth power of the distance |D| between the atoms. We rigorously compute all terms in the binding energy up to order |D|-9 with error term of order O(|D|-10). As intermediate steps we prove exponential decay of eigenfunctions of multiparticle Schrödinger operators with permutation symmetry imposed by the Pauli principle and new estimates of the localization error. In addition we prove the van der Waals-London law for the projected Dirac operator, known as the Brown-Ravenhall operator. In this case we do not calculate the coefficients explicitly and we obtain an error term of order O(|D|-7)
APA, Harvard, Vancouver, ISO, and other styles
18

Abu-Shaban, Zohair M. "Towards the Next Generation of Location-Aware Communications." Phd thesis, 2017. http://hdl.handle.net/1885/143226.

Full text
Abstract:
This thesis is motivated by the expected implementation of the next generation mobile networks (5G) from 2020, which is being designed with a radical paradigm shift towards millimeter-wave technology (mmWave). Operating in 30--300 GHz frequency band (1--10 mm wavelengths), massive antenna arrays that provide a high angular resolution, while being packed on a small area will be used. Moreover, since the abundant mmWave spectrum is barely occupied, large bandwidth allocation is possible and will enable low-error time estimation. With this high spatiotemporal resolution, mmWave technology readily lends itself to extremely accurate localization that can be harnessed in the network design and optimization, as well as utilized in many modern applications. Localization in 5G is still in early stages, and very little is known about its performance and feasibility. In this thesis, we contribute to the understanding of 5G mmWave localization by focusing on challenges pertaining to this emerging technology. Towards that, we start by considering a conventional cellular system and propose a positioning method under outdoor LOS/NLOS conditions that, although approaches the Cram\'er-Rao lower bound (CRLB), provides accuracy in the order of meters. This shows that conventional systems have limited range of location-aware applications. Next, we focus on mmWave localization in three stages. Firstly, we tackle the initial access (IA) problem, whereby user equipment (UE) attempts to establish a link with a base station (BS). The challenge in this problem stems from the high directivity of mmWave. We investigate two beamforming schemes: directional and random. Subsequently, we address 3D localization beyond IA phase. Devices nowadays have higher computational capabilities and may perform localization in the downlink. However, beamforming on the UE side is sensitive to the device orientation. Thus, we study localization in both the uplink and downlink under multipath propagation and derive the position (PEB) and orientation error bounds (OEB). We also investigate the impact of the number of antennas and the number of beams on these bounds. Finally, the above components assume that the system is synchronized. However, synchronization in communication systems is not usually tight enough for localization. Therefore, we study two-way localization as a means to alleviate the synchronization requirement and investigate two protocols: distributed (DLP) and centralized (CLP). Our results show that random-phase beamforming is more appropriate IA approach in the studied scenarios. We also observe that the uplink and downlink are not equivalent, in that the error bounds scale differently with the number of antennas, and that uplink localization is sensitive to the UE orientation, while downlink is not. Furthermore, we find that NLOS paths generally boost localization. The investigation of the two-way protocols shows that CLP outperforms DLP by a significant margin. We also observe that mmWave localization is mainly limited by angular rather than temporal estimation. In conclusion, we show that mmWave systems are capable of localizing a UE with sub-meter position error, and sub-degree orientation error, which asserts that mmWave will play a central role in communication network optimization and unlock opportunities that were not available in the previous generation.
APA, Harvard, Vancouver, ISO, and other styles
19

Boskovitz, Agnes. "Data Editing and Logic: The covering set method from the perspective of logic." Phd thesis, 2008. http://hdl.handle.net/1885/49318.

Full text
Abstract:
Errors in collections of data can cause significant problems when those data are used. Therefore the owners of data find themselves spending much time on data cleaning. This thesis is a theoretical work about one part of the broad subject of data cleaning - to be called the covering set method. More specifically, the covering set method deals with data records that have been assessed by the use of edits, which are rules that the data records are supposed to obey. The problem solved by the covering set method is the error localisation problem, which is the problem of determining the erroneous fields within data records that fail the edits. In this thesis I analyse the covering set method from the perspective of propositional logic. ...
APA, Harvard, Vancouver, ISO, and other styles
20

Benmessaoud, Sirine. "Metalinguistic knowledge of second language pre-service teachers and the quality of their written corrective feedback : what relations?" Thesis, 2020. http://hdl.handle.net/1866/24553.

Full text
Abstract:
Cette étude quantitative vise à 1) mesurer les connaissances métalinguistiques des futurs enseignants, 2) décrire la qualité de la rétroaction corrective écrite (RCÉ) des futurs enseignants de français langue seconde (FLS), et 3) examiner la relation entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit. Un groupe de 18 futurs enseignants de français langue seconde inscrit dans le programme de formation initiale des maîtres à Montréal a participé à l'étude. Les participants ont accompli 1) une tâche d’analyse de phrases pour mesurer leurs connaissances métalinguistiques, et 2) une tâche de rétroaction corrective écrite, pour évaluer la qualité de leurs pratiques rétroactives à l’écrit en termes de localisation d'erreur et d'explication métalinguistique fournie. Alors que les analyses descriptives sont effectuées pour répondre aux deux premières questions de la présente étude, des analyses de corrélation ont été réalisées pour déterminer s’il existe des relations entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit. Les résultats indiquent que 1) la localisation de l'erreur de la RCÉ fournie est précise, mais 2) l'explication métalinguistique l’est moins, 3) il existe une relation entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit.
The present quantitative study seeks to 1) measure pre-service teachers’ metalinguistic knowledge, 2) describe the quality of French as a second language (FSL) pre-service teachers’ written corrective feedback (WCF), and 3) examine the relationship between pre-service teachers’ metalinguistic knowledge and the quality of their written corrective feedback (i.e., teachers’ metalinguistic awareness). A group of 18 French as a second language pre-service teachers following the initial teacher training program in Montreal, participated in the study. Participants were assigned 1) a task of analytical abilities to measure their metalinguistic knowledge, and 2) a task of written corrective feedback provision to evaluate the quality of their written corrective feedback in terms of error location and the metalinguistic explanation provided. Descriptive analyses were undertaken to answer the first two research questions. Correlation analyses were performed to examine whether there exist any relations between pre-service teachers’ metalinguistic knowledge and the quality of their WCF. Among other things, results indicated that 1) while the error location of WCF provided was precise, 2) the metalinguistic explanation provided by the participants was not accurate, 3) there is a relationship between pre-service teachers’ metalinguistic knowledge and the quality of written corrective feedback.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography