Thèses sur le sujet « Réparation des données »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Réparation des données.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 19 meilleures thèses pour votre recherche sur le sujet « Réparation des données ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Tzompanaki, Aikaterini. « Réponses manquantes : Débogage et Réparation de requêtes ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS223/document.

Texte intégral
Résumé :
La quantité croissante des données s’accompagne par l’augmentation du nombre de programmes de transformation de données, généralement des requêtes, et par la nécessité d’analyser et comprendre leurs résultats : (a) pourquoi telle réponse figure dans le résultat ? ou (b) pourquoi telle information n’y figure pas ? La première question demande de trouver l’origine ou la provenance des résultats dans la base, un problème très étudié depuis une 20taine d’années. Par contre, expliquer l’absence de réponses dans le résultat d’une requête est un problème peu exploré jusqu’à présent. Répondre à une question Pourquoi-Pas consiste à fournir des explications quant à l’absence de réponses. Ces explications identifient pourquoi et comment les données pertinentes aux réponses manquantes sont absentes ou éliminées par la requête. Notre travail suppose que la base de données n’est pas source d’erreur et donc cherche à fournir des explications fondées sur (les opérateurs de) la requête qui peut alors être raffinée ultérieurement en modifiant les opérateurs "fautifs". Cette thèse développe des outils formels et algorithmiques destinés au débogage et à la réparation de requêtes SQL afin de traiter des questions de type Pourquoi-Pas. Notre première contribution, inspirée par une étude critique de l’état de l’art, utilise un arbre de requête pour rechercher les opérateurs "fautifs". Elle permet de considérer une classe de requêtes incluant SPJA, l’union et l’agrégation. L’algorithme NedExplain développé dans ce cadre, a été validé formellement et expérimentalement. Il produit des explications de meilleure qualité tout en étant plus efficace que l’état de l’art.L’approche précédente s’avère toutefois sensible au choix de l’arbre de requête utilisé pour rechercher les explications. Notre deuxième contribution réside en la proposition d’une notion plus générale d’explication sous forme de polynôme qui capture toutes les combinaisons de conditions devant être modifiées pour que les réponses manquantes apparaissent dans le résultat. Cette méthode s’applique à la classe des requêtes conjonctives avec inégalités. Sur la base d’un premier algorithme naïf, Ted, ne passant pas à l’échelle, un deuxième algorithme, Ted++, a été soigneusement conçu pour éliminer entre autre les calculs itérés de sous-requêtes incluant des produits cartésien. Comme pour la première approche, une évaluation expérimentale a prouvé la qualité et l’efficacité de Ted++. Concernant la réparation des requêtes, notre contribution réside dans l’exploitation des explications polynômes pour guider les modifications de la requête initiale ce qui permet la génération de raffinements plus pertinents. La réparation des jointures "fautives" est traitée de manière originale par des jointures externes. L’ensemble des techniques de réparation est mis en oeuvre dans FixTed et permet ainsi une étude de performance et une étude comparative. Enfin, Ted++ et FixTed ont été assemblés dans une plate-forme pour le débogage et la réparation de requêtes relationnelles
With the increasing amount of available data and data transformations, typically specified by queries, the need to understand them also increases. “Why are there medicine books in my sales report?” or “Why are there not any database books?” For the first question we need to find the origins or provenance of the result tuples in the source data. However, reasoning about missing query results, specified by Why-Not questions as the latter previously mentioned, has not till recently receivedthe attention it is worth of. Why-Not questions can be answered by providing explanations for the missing tuples. These explanations identify why and how data pertinent to the missing tuples were not properly combined by the query. Essentially, the causes lie either in the input data (e.g., erroneous or incomplete data) or at the query level (e.g., a query operator like join). Assuming that the source data contain all the necessary relevant information, we can identify the responsible query operators formingquery-based explanations. This information can then be used to propose query refinements modifying the responsible operators of the initial query such that the refined query result contains the expected data. This thesis proposes a framework targeted towards SQL query debugging and fixing to recover missing query results based on query-based explanations and query refinements.Our contribution to query debugging consist in two different approaches. The first one is a tree-based approach. First, we provide the formal framework around Why-Not questions, missing from the state-of-the-art. Then, we review in detail the state-of-the-art, showing how it probably leads to inaccurate explanations or fails to provide an explanation. We further propose the NedExplain algorithm that computes correct explanations for SPJA queries and unions there of, thus considering more operators (aggregation) than the state of the art. Finally, we experimentally show that NedExplain is better than the both in terms of time performance and explanation quality. However, we show that the previous approach leads to explanations that differ for equivalent query trees, thus providing incomplete information about what is wrong with the query. We address this issue by introducing a more general notion of explanations, using polynomials. The polynomial captures all the combinations in which the query conditions should be fixed in order for the missing tuples to appear in the result. This method is targeted towards conjunctive queries with inequalities. We further propose two algorithms, Ted that naively interprets the definitions for polynomial explanations and the optimized Ted++. We show that Ted does not scale well w.r.t. the size of the database. On the other hand, Ted++ is capable ii of efficiently computing the polynomial, relying on schema and data partitioning and advantageous replacement of expensive database evaluations by mathematical calculations. Finally, we experimentally evaluate the quality of the polynomial explanations and the efficiency of Ted++, including a comparative evaluation.For query fixing we propose is a new approach for refining a query by leveraging polynomial explanations. Based on the input data we propose how to change the query conditions pinpointed by the explanations by adjusting the constant values of the selection conditions. In case of joins, we introduce a novel type of query refinements using outer joins. We further devise the techniques to compute query refinements in the FixTed algorithm, and discuss how our method has the potential to be more efficient and effective than the related work.Finally, we have implemented both Ted++ and FixTed in an system prototype. The query debugging and fixing platform, short EFQ allows users to nteractively debug and fix their queries when having Why- Not questions
Styles APA, Harvard, Vancouver, ISO, etc.
2

Martinez, Matias. « Extraction and analysis of knowledge for automatic software repair ». Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10101/document.

Texte intégral
Résumé :
La correction d'un bogue est une activité fréquente fait dans le cycle de vie du logiciel. L'activité vise à éliminer l'écart entre le comportement attendu d'un programme et ce qu'il fait réellement. Dans les dernières années, plusieurs approches automatiques de réparation de logiciels ont vu le jour pour synthétiser automatiquement des corrections de bugs. Malheureusement, la correction de bugs pourrait être encore difficile et coûteux pour les approches automatiques programme de réparation. Par exemple, pour réparer un bogue, une approche pourrait passer un temps infini à trouver une solution auprès d'un grand nombre de candidats. Dans cette thèse, nous visons à améliorer la réparabilité de bogues: augmenter le nombre de bogues réparés par des approches de réparation. Nous visons à ajouter réparation approches des stratégies pour optimiser la recherche de solutions. Nous présentons une stratégie qui consomme informations extraites de réparations effectuées par les développeurs. Ensuite, nous nous concentrons sur l'évaluation des méthodes de réparation automatique. Nous visons à introduire des procédures pour avoir significative évaluations d'approches.Nous définissons d'abord une méthode pour définir des jeux de données de défauts qui réduisent au minimum la possibilité de résultats biaisés. La manière dont un jeu de données est construite impacts sur le résultat d'une évaluation de l'approche. Nous présentons un jeu de données qui comprend un type particulier de défaut: les défauts instructions conditionnelles. Ensuite, nous cherchons à mesurer la réparabilité de ce type de défaut en évaluant trois approches de réparation automatique du logiciel
Bug fixing is a frequent activity done in the software life cycle. The activity aims at removing the gap between the expected behavior of a program and what it actually does. In the recent years, several automatic software repair approaches have emerged to automatically synthesize bug fixes. Unfortunately, bug fixing could be even hard and expensive for automatic program repair approaches. For example, to repair a given bug, a repair technique could spend infinite time to find a fix among a large number of candidate fixes. In this thesis, we aim at improving repairability of bugs. That is, to increase the number of bugs repaired by repair approaches. First, we concentrate on the study of repair search spaces i.e., all possible solutions for the fix. We aim at adding repair approaches strategies to optimize the search of solutions in the repair search space. We present a strategy to reduce the time to find a fix. The strategy consumes information extracted from repairs done by developers. Then, we focus on the evaluation of automatic repair approaches. We aim at introducing methodologies and evaluation procedures to have meaningful repair approach evaluations.We first define a methodology to define defect datasets that minimize the possibility of biased results. The way a dataset is built impacts on the result of an approach evaluation. We present a dataset that includes a particular kind of defect: if conditional defects. Then, we aim at measuring the repairability of this kind of defect by evaluating three state-of-the-art automatic software repair approaches
Styles APA, Harvard, Vancouver, ISO, etc.
3

Obry, Tom. « Apprentissage numérique et symbolique pour le diagnostic et la réparation automobile ». Thesis, Toulouse, INSA, 2020. http://www.theses.fr/2020ISAT0014.

Texte intégral
Résumé :
Le clustering est une des méthodes issues de l'apprentissage non-supervisé qui vise à partitionner un ensemble de données en différents groupes homogènes au sens d’un critère de similarité. Les données de chaque groupe partagent alors des caractéristiques communes. DyClee est un classifieur qui réalise une classification à partir de données numériques arrivant en flux continu et qui propose un mécanisme d’adaptation pour mettre à jour cette classification réalisant ainsi un clustering dynamique en accord avec les évolutions du système ou procédé suivi. Néanmoins la seule prise en compte des attributs numériques ne permet pas d’appréhender tous les champs d’application. Dans cet objectif de généralisation, cette thèse propose d’une part une extension aux données catégorielles nominales, d’autre part une extension aux données mixtes. Des approches de clustering hiérarchique sont également proposées afin d’assister les experts dans l’interprétation des clusters obtenus et dans la validation des partitions générées. L'algorithme présenté, appelé DyClee Mixte, peut être appliqué dans des divers domaines applicatifs. Dans le cas de cette thèse, il est utilisé dans le domaine du diagnostic automobile
Clustering is one of the methods resulting from unsupervised learning which aims to partition a data set into different homogeneous groups in the sense of a similarity criterion. The data in each group then share common characteristics. DyClee is a classifier that performs a classification based on digital data arriving in a continuous flow and which proposes an adaptation mechanism to update this classification, thus performing dynamic clustering in accordance with the evolution of the system or process being followed. Nevertheless, the only consideration of numerical attributes does not allow to apprehend all the fields of application. In this generalization objective, this thesis proposes on the one hand an extension to nominal categorical data, and on the other hand an extension to mixed data. Hierarchical clustering approaches are also proposed in order to assist the experts in the interpretation of the obtained clusters and in the validation of the generated partitions. The presented algorithm, called Mixed DyClee, can be applied in various application domains. In the case of this thesis, it is used in the field of automotive diagnostics
Styles APA, Harvard, Vancouver, ISO, etc.
4

Tahrat, Sabiha. « Data inconsistency detection and repair over temporal knowledge bases ». Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5209.

Texte intégral
Résumé :
Cette thèse étudie la faisabilité du raisonnement automatique sur des bases de connaissances DL-Lite temporelles TDL-Lite. Dans la première partie, nous avons traduit les bases de connaissances exprimées en TDL-Lite en logique temporelle de première ordre et en logique temporelle linéaire LTL qui sont munies de raisonneurs temporels permettant de vérifier leur satisfiabilité. Nous avons réalisé diverses expériences pour analyser les performances et la robustesse des différents raisonneurs sur des scénarios jouets et sur des bases de connaissances TDL-Lite synthétiques de tailles variables. Par ailleurs, lors du traitement des bases de connaissances avec une composante Assertionnel ABox de grande taille, nous avons également proposé une approche d’abstraction des assertions temporelles afin d’améliorer la scalabilité du raisonnement. Nous avons mené plusieurs tests pour évaluer l’efficacité de l’abstraction en mesurant le gain en termes de nombre d’assertions et d’individus dans la ABox. En outre, nous avons mesuré le nouveau temps d’exécution de quelques raisonneurs sur de telles bases de connaissances résumées. Enfin, dans l’objectif de faire de l’utilisation des bases de connaissances en TDL-Lite une réalité, nous avons présenté un outil complet avec une interface graphique qui permet de les concevoir. Notre interface est basée sur des principes de modélisation conceptuelle et elle est intégrée à notre outil de traduction et aux différents raisonneurs temporels. En considérant la ABox comme source d’incohérence, nous avons, dans la deuxième partie de la thèse, traité le problème de gestion des données incohérentes dans les bases de connaissances en TDL-Lite. En effet, nous avons proposé une approche de réparation de la ABox. Il s’agit du premier travail sur la réparation appliquée aux bases de connaissances en logiques de description temporelles. Pour ce faire, nous avons d’abord détecté et localisé les assertions temporelles sources d’incohérence et nous avons ensuite proposé une réparationtemporelle de ces données. Pour la détection, nous avons proposé une traduction des bases de connaissances de TDL-Lite vers DL-Lite; ce qui a permis d’utiliser des raisonneurs de la logique de description hautement optimisés et capables d’apporter une explication précise de l’incohérence. A partir de l’explication obtenue, nous avons ensuite proposé une méthode pour calculer automatiquement la meilleure réparation temporelle en fonction: a) des prédicats rigides, invariants dans le temps, autorisés dans la définition de la base de connaissances et b) de l’ordre temporel des assertions
We investigate the feasibility of automated reasoning over temporal DL-Lite (TDL-Lite) knowledge bases (KBs). We translate TDL-Lite KBs into a fragment of FO-logic and into LTL and apply off-the-shelf LTL and FO-based reasoners for checking the satisfiability. We conduct various experiments to analyse the runtime performance of different reasoners on toy scenarios and on randomly generated TDL-Lite KBs as well as the size of the LTL translation. To improve the reasoning performance when dealing with large ABoxes, our work also proposes an approach for abstracting temporal assertions in KBs. We run several experiments with this approach to assess the effectiveness of the technique by measuring the gain in terms of the size of the translation, the number of ABox assertions and individuals. We also measure the new runtime of some solvers on such abstracted KBs. Lastly, in an effort to make the usage of TDL-Lite KBs a reality, we present a fully-fledged tool with a graphical interface to design them. Our interface is based on conceptual modeling principles, and it is integrated with our translation tool and a temporal reasoner. In this thesis, we also address the problem of handling inconsistent data in Temporal Description Logic (TDL) knowledge bases. Considering the data part of the knowledge base as the source of inconsistency over time, we propose an ABox repair approach. This is the first work handling the repair in TDL Knowledge bases. To do so, our goal is two folds: 1) detect temporal inconsistencies and 2) propose a data temporal repair. For the inconsistency detection, we propose a reduction approach from TDL to DL which allows to provide a tight NP-complete upper bound for TDL concept satisfiability and to use highly optimized DL reasoners that can bring precise explanation (the set of inconsistent data assertions). Thereafter, from the obtained explanation, we propose a method for automatically computing the best repair in the temporal setting based on the allowed rigid predicates and the time order of assertions
Styles APA, Harvard, Vancouver, ISO, etc.
5

Yu, Mulin. « Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques ». Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Texte intégral
Résumé :
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
Styles APA, Harvard, Vancouver, ISO, etc.
6

Comignani, Ugo. « Interactive mapping specification and repairing in the presence of policy views ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1127/document.

Texte intégral
Résumé :
La migration de données entre des sources aux schémas hétérogènes est un domaine en pleine croissance avec l'augmentation de la quantité de données en accès libre, et le regroupement des données à des fins d'apprentissage automatisé et de fouilles. Cependant, la description du processus de transformation des données d'une instance source vers une instance définie sur un schéma différent est un processus complexe même pour un utilisateur expert dans ce domaine. Cette thèse aborde le problème de la définition de mapping par un utilisateur non expert dans le domaine de la migration de données, ainsi que la vérification du respect par ce mapping des contraintes d'accès ayant été définies sur les données sources. Pour cela, dans un premier temps nous proposons un système dans lequel l'utilisateur fournit un ensemble de petits exemples de ses données, et est amené à répondre à des questions booléennes simples afin de générer un mapping correspondant à ses besoins. Dans un second temps, nous proposons un système permettant de réécrire le mapping produit de manière à assurer qu'il respecte un ensemble de vues de contrôle d'accès définis sur le schéma source du mapping. Plus précisément, le premier grand axe de cette thèse est la formalisation du problème de la définition interactive de mappings, ainsi que la description d'un cadre formel pour la résolution de celui-ci. Cette approche formelle pour la résolution du problème de définition interactive de mappings est accompagnée de preuves de bonnes propriétés. A la suite de cela, basés sur le cadre formel défini précédemment, nous proposons des algorithmes permettant de résoudre efficacement ce problème en pratique. Ces algorithmes visent à réduire le nombre de questions auxquelles l'utilisateur doit répondre afin d'obtenir un mapping correspondant à ces besoins. Pour cela, les mappings possibles sont ordonnés dans des structures de treillis imbriqués, afin de permettre un élagage efficace de l'espace des mappings à explorer. Nous proposons également une extension de cette approche à l'utilisation de contraintes d'intégrité afin d'améliorer l’efficacité de l'élagage. Le second axe majeur vise à proposer un processus de réécriture de mapping qui, étant donné un ensemble de vues de contrôle d'accès de référence, permet d'assurer que le mapping réécrit ne laisse l'accès à aucune information n'étant pas accessible via les vues de contrôle d'accès. Pour cela, nous définissons un protocole de contrôle d'accès permettant de visualiser les informations accessibles ou non à travers un ensemble de vues de contrôle d'accès. Ensuite, nous décrivons un ensemble d'algorithmes permettant la réécriture d'un mapping en un mapping sûr vis-à-vis d'un ensemble de vues de contrôle d'accès. Comme précédemment, cette approche est complétée de preuves de bonnes propriétés. Afin de réduire le nombre d'interactions nécessaires avec l'utilisateur lors de la réécriture d'un mapping, une approche permettant l'apprentissage des préférences de l'utilisateur est proposée, cela afin de permettre le choix entre un processus interactif ou automatique. L'ensemble des algorithmes décrit dans cette thèse ont fait l'objet d'un prototypage et les expériences réalisées sur ceux-ci sont présentées dans cette thèse
Data exchange between sources over heterogeneous schemas is an ever-growing field of study with the increased availability of data, oftentimes available in open access, and the pooling of such data for data mining or learning purposes. However, the description of the data exchange process from a source to a target instance defined over a different schema is a cumbersome task, even for users acquainted with data exchange. In this thesis, we address the problem of allowing a non-expert user to spec- ify a source-to-target mapping, and the problem of ensuring that the specified mapping does not leak information forbidden by the security policies defined over the source. To do so, we first provide an interactive process in which users provide small examples of their data, and answer simple boolean questions in order to specify their intended mapping. Then, we provide another process to rewrite this mapping in order to ensure its safety with respect to the source policy views. As such, the first main contribution of this thesis is to provide a formal definition of the problem of interactive mapping specification, as well as a formal resolution process for which desirable properties are proved. Then, based on this formal resolution process, practical algorithms are provided. The approach behind these algorithms aims at reducing the number of boolean questions users have to answers by making use of quasi-lattice structures to order the set of possible mappings to explore, allowing an efficient pruning of the space of explored mappings. In order to improve this pruning, an extension of this approach to the use of integrity constraints is also provided. The second main contribution is a repairing process allowing to ensure that a mapping is “safe” with respect to a set of policy views defined on its source schema, i.e., that it does not leak sensitive information. A privacy-preservation protocol is provided to visualize the information leaks of a mapping, as well as a process to rewrite an input mapping into a safe one with respect to a set of policy views. As in the first contribution, this process comes with proofs of desirable properties. In order to reduce the number of interactions needed with the user, the interactive part of the repairing process is also enriched with the possibility of learning which rewriting is preferred by users, in order to obtain a completely automatic process. Last but not least, we present extensive experiments over the open source prototypes built from two contributions of this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
7

Rantsoudis, Christos. « Bases de connaissance et actions de mise à jour préférées : à la recherche de consistance au travers des programmes de la logique dynamique ». Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30286.

Texte intégral
Résumé :
Dans la littérature sur les bases de données, il a été proposé d'utiliser des contraintes d'intégrité actives afin de restaurer l'intégrité de la base. Ces contraintes d'intégrité actives consistent en une contrainte classique augmentée d'un ensemble d'actions de mise à jour préférées qui peuvent être déclenchées quand la contrainte est violée. Dans la première partie de cette thèse, nous passons en revue les principales stratégies de réparation qui ont été proposées dans la littérature et proposons une formalisation par des programmes de la Logique Dynamique. L'outil principal que nous employons dans notre recherche est la logique DL-PA, une variante de PDL récemment introduite. Nous explorons ensuite une nouvelle façon dynamique de réparer les bases de données et comparons sa complexité calculatoire et ses propriétés générales aux approches classiques. Dans la seconde partie de la thèse nous abandonnons le cadre propositionnel et adaptons les idées susmentionnées à des langages d'un niveau supérieur. Plus précisément, nous nous intéressons aux Logiques de Description, et étudions des extensions des axiomes d'une TBox par des actions de mise à jour donnant les manières préférées par lesquelles une ABox doit être réparée dans le cas d'une inconsistance avec les axiomes de la TBox. L'extension des axiomes d'une TBox avec de telles actions de mise à jour constitue une nouvelle TBox, qui est active. Nous nous intéressons à la manière de réparer une ABox en rapport avec une telle TBox active, du point de vue syntaxique ainsi que du point de vue sémantique. Étant donnée une ABox initiale, l'approche syntaxique nous permet de construire un nouvel ensemble d'ABox dans lequel nous identifions les réparations les mieux adaptées. D'autre part, pour l'approche sémantique, nous faisons de nouveau appel au cadre de la logique dynamique et considérons les actions de mise à jour, les axiomes d'inclusion actives et les réparations comme des programmes. Étant donné une TBox active aT , ce cadre nous permet de vérifier (1) si un ensemble d'actions de mise à jour est capable de réparer une ABox en accord avec les axiomes actifs d'aT en effectuant une interprétation locale des actions de mise à jour et (2) si une ABox A' est la réparation d'une ABox donnée A sous les axiomes actifs d'aT moyennant un nombre borné de calculs, en utilisant une interprétation globale des actions de mise à jour. Après une discussion des avantages de chaque approche nous concluons en proposant une intégration des approches syntaxiques et sémantiques dans une approche cohésive
In the database literature it has been proposed to resort to active integrity constraints in order to restore database integrity. Such active integrity constraints consist of a classical constraint together with a set of preferred update actions that can be triggered when the constraint is violated. In the first part of this thesis, we review the main repairing routes that have been proposed in the literature and capture them by means of Dynamic Logic programs. The main tool we employ for our investigations is the recently introduced logic DL-PA, which constitutes a variant of PDL. We then go on to explore a new, dynamic kind of database repairing whose computational complexity and general properties are compared to the previous established approaches. In the second part of the thesis we leave the propositional setting and pursue to adapt the aforementioned ideas to higher level languages. More specifically, we venture into Description Logics and investigate extensions of TBox axioms by update actions that denote the preferred ways an ABox should be repaired in case of inconsistency with the axioms of the TBox. The extension of the TBox axioms with these update actions constitute new, active TBoxes. We tackle the problem of repairing an ABox with respect to such an active TBox both from a syntactic as well as a semantic perspective. Given an initial ABox, the syntactic approach allows us to construct a set of new ABoxes out of which we then identify the most suitable repairs. On the other hand, for the semantic approach we once again resort to a dynamic logic framework and view update actions, active inclusion axioms and repairs as programs. Given an active TBox aT , the framework allows to check (1) whether a set of update actions is able to repair an ABox according to the active axioms of aT by interpreting the update actions locally and (2) whether an ABox A' is the repair of a given ABox A under the active axioms of aT using a bounded number of computations by interpreting the update actions globally. After discussing the strong points of each direction, we conclude by combining the syntactic and semantic investigations into a cohesive approach
Styles APA, Harvard, Vancouver, ISO, etc.
8

Laval, Quentin. « Un environnement de modélisation et d'aide à la décision pour un problème de livraison - collecte sous incertitudes : application à la PFL de l'AP-HM ». Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0193.

Texte intégral
Résumé :
Ce travail de thèse s’inscrit dans le projet logistique de l’Assistance Publique Hôpitaux de Marseille. En effet l’AP-HM a ouvert une plateforme logistique en avril 2013 afin de centraliser les activités de production de repas, de stérilisation, de stockage de produits hôteliers et de blanchiment de linge. Ces produits finis sont ensuite transportés dans des contenants, grâce à une équipe de transport, vers les quatre centres hospitaliers de Marseille. Le but de cette étude de recherche est de proposer une méthode et un outil permettant d’aider l’équipe de régulation des transports pour la gestion des ressources de transport. Cette étude prend en compte la variabilité des temps de trans- port ainsi que les aléas pouvant intervenir dans le cycle de vie d’une tournée de transport.Pour cela nous commençons par réaliser un modèle de connaissance du système logistique existant grâce à la méthodologie ASCI. Nous proposons ensuite une méthode et un outil permettant la génération de planning de tournées quotidien. Cette méthode est une solution ad-hoc qui intègre la résolution d’un problème de charge- ment, la planification de véhicules et d’équipages, ainsi qu’une représentation et une mo- délisation statistique de la variabilité des temps de transports en milieu urbain. En effet, le taux de congestion quotidien peut faire varier un temps de transport du simple au double. Enfin pour la gestion des aléas, nous proposons une méthode de réparation de planning que nous modélisons grâce aux systèmes multi agents. Ce dernier point de ce travail de thèse permet, en fonction des scénarios de défaillance, de proposer la solution la plus adaptée aux équipes de transport
This thesis work is part of the logistics project of the Assistance Publique-Hôpitaux de Marseille. Indeed the AP-HM opened a logistics platform in April 2013 in order to central- ize production activities of meals, sterilization, storage product and bleaching of linen. These products are then transported in containers, thanks to a team of transport, to the four hospitals in Marseille. After consumption of the products, by healthcare units, used containers must be re- ported to the logistics platform that they are disinfected and reinstated in the production loop. The purpose of this research study is to propose a method and a tool to help the team of regulation of transport for the management of transport resources. This study takes into account the variability of the transport time and the hazards that could inter- vene in the life cycle of a tour of transport.For this we make a knowledge model of logistics system using the ASCI methodology. This model of knowledge is then validated with a simulation model. We offer then a method and a tool allowing the generation of daily tour schedule. This method is an ad - hoc solu- tion that integrates solving a problem loading, planning for vehicle and crew, as well as representation and statistical modelling of variability in the time of transport in urban areas. Indeed, the daily congestion rate can vary a transport time of one to two. Finally, for the management of the ups and downs, we propose a method of repair of planning that we model with multi agent systems. This last point of this thesis according to failure sce- narios, makes it possible to propose the best solution to the transport staff
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gigot, Sébastien. « Contribution à la conception d’une base de données de maintenabilité opérationnelle dynamique : Proposition de prise en compte des facteurs pénalisants dans l’estimation du MTTR [Mean Time To Repair] ». Ecole nationale d'ingénieurs (Saint-Etienne), 2013. http://www.theses.fr/2013ENISE021.

Texte intégral
Résumé :
Cette thèse a pour but d’exposer une méthodologie d’évaluation du risque de ne pas satisfaireaux exigences de maintenabilité pour des équipements industriels complexes en exploitation. Elle permet de mieux comprendre la problématique du dépassement de la durée de réparation lié aux activités de maintenabilité opérationnelle. Peu d’études sont à l’heure actuelle, consacrées à ce sujet rendu complexe par la multitude d’activités différentes et un niveau d’exigence sans cesse croissant. Les exigences de maintenabilité et de disponibilité apparaissent de plus en plus. Notre proposition porte sur l’évaluation des critères de maintenabilité critiques intervenant dans un processus de maintenabilité afin d’optimiser l’enchaînement des actions depuis la panne jusqu’à la remise en service. L’analyse de ces facteurs pénalisants nous conduit à développer un modèle d’estimation du MTTR pour minimiser le delta des dérives liées au dépassement des délais de réparation. Les résultats illustrés d’exemples concrets permettent d’apprécier la maintenabilité du système au regard des objectifs fixés et de proposer le cas échéant, des actions en diminution de risques pour optimiser l’indisponibilité du système. Ce travail s’est intéressé au développement d'une démarche de modélisation des systèmes complexes pour l'évaluation des stratégies de maintenance. Son aboutissement est un outil d'aide à la décision pour construire et satisfaire aux programmes de maintenance en effectuant les choix les mieux adaptés. Nos travaux ont portés sur la maintenabilité opérationnelle et sur l’importance de l’estimation des durées de réparation en prenant en compte le contexte dans lequel évolue le système afin d’identifier les événements pénalisants. Ces travaux viennent souligner l’importance à accorder aux méthodologies de traitement d’une panne, en proposant de reconsidérer le concept de maintenabilité opérationnelle afin de mieux maîtriser les aléas liés au dépassement des durées de réparation
This thesis is intended to describe a methodology for assessment of the risk of not satisfying the requirements of maintainability for industrial equipment complex in operation. It allows you to better understand the problematic of the overrun of the duration of repair linked to the activities of operational serviceability. Few of the studies are at the present time, devoted to this topic made complex by the multitude of different activities and a level of requirement always growing. The requirements of maintainability and availability appear more and more. Our proposal focuses on the evaluation of the criteria of maintainability criticisms involved in a process of maintainability in order to optimize the sequence of actions since the fault up to the rehabilitation service. The analysis of these inhibiting factors led us to develop a model for estimating of the MTTR to minimize the delta of derivatives linked to the overrun of the repair time. The results illustrated by specific examples allow to assess the maintainability of the system in relation to the objectives set and to propose, if necessary, actions to decrease of risks to optimize the system unavailability. This work is interested in the development of an approach to the modeling of complex systems for the assessment of maintenance strategies. Its culmination is a tool to help in the decision to build and meet the maintenance programs by performing the choice best suited. Our works have focused on the operational maintainability and on the importance of the estimation of repair times taking into account the context in which evolved the system in order to identify the events penally. These works have stressed the importance to be given to the methodology of treatment of a failure, by proposing to reconsider the concept of maintainability operational in order to better control the uncertainties related to the excedance of repair times
Styles APA, Harvard, Vancouver, ISO, etc.
10

Khraibani, Hussein. « Modélisation statistique de données longitudinales sur un réseau routier entretenu ». Ecole centrale de Nantes, 2010. http://www.theses.fr/2010ECDN0040.

Texte intégral
Résumé :
Nous nous intéressons à la modélisation des lois d’évolutions des dégradations de chaussées entretenues. Pour cela, cette thèse fait une revue des modèles et outils de modélisation, notamment l’analyse des données de survie (MADS) qui a fait l’objet développements importants au LCPC. Pour tirer parti du fait que les bases de données comportent, aujourd’hui, des séries d’observations sur chaque section routière, elle propose une autre approche fondée sur la mise en œuvre de modèles non linéaires mixtes. En procédant à une comparaison des capacités d’ajustement et de prédiction de ces modèles, d’abord sur des bases de données artificielles, non bruitées et bruitées, puis sur une base de données provenant d’un programme de suivi de section test, et enfin sur une base de données issue du suivi périodique d’un réseau routier réel, la thèse permet de tirer des conclusions claires sur les conditions et le domaine d’application des modèles
Road transportation has a direct impact on a country's economy. Infrastructures, particularly pavements, deteriorate under the effect of traffic and climate. As a result, they most constantly undergo maintenance which often requires expensive works. The optimization of maintenance strategies and the scheduling of works necessarily pass by a study that makes use of deterioration evolution laws and accounts for the effect of maintenance on these laws. In this respect, numerous theoretical and experimental works ranging linear and nonlinear regressions to more sophisticated methods such as Markov chain have been conducted. The thesis presents a survey of models and methods and focuses on the analysis of survival data (MADS), an analysis which constituted the objective of important works at LCPC. In order to acount for the fact that current databases contain repeated measurements of each pavement section, the thesis proposes a different approach based on the use of nonlinear mixed-effects models (NLME). First, it carries out a comparison between the NLME and MADS models on different databases in terms of the goodness of fit and prediction capability. The comparison then allows to draw conclusions about the applicability of the two models
Styles APA, Harvard, Vancouver, ISO, etc.
11

Efaga, Eugène-Désiré. « Analyse des données du retour d'expérience pour l'organisation de la maintenance des équipements de production des PME/PMI dans le cadre de la MBF (Maintenance Basée sur la Fiabilité) ». Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/EFAGA_Eugene-Desire_2004.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Martin, Florent. « Pronostic de défaillances de pompes à vide - Exploitation automatique de règles extraites par fouille de données ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENA011.

Texte intégral
Résumé :
Cette thèse présente une méthode de pronostic basée sur des règles symboliques extraites par fouille de données. Une application de cette méthode au cas du grippage de pompes à vide est aussi détaillée. Plus précisément, à partir d'un historique de données vibratoires, nous modélisons le comportement des pompes par extraction d'un type particulier de règles d'épisode appelé « First Local Maximum episode rules » (FLM-règles). L'algorithme utilisé pour extraire ces FLM-règles extrait aussi de manière automatique leur fenêtre optimale respective, i.e. la fenêtre dans laquelle la probabilité d'observer la prémisse et la conclusion de la règle est maximale. Un sous-ensemble de ces FLM-règles est ensuite sélectionné pour prédire les grippages à partir d'un flux de données vibratoires. Notre contribution porte sur la sélection des FLM-règles les plus fiables, la recherche de ces FLM-règles dans un flux continu de données vibratoires et la construction d'un intervalle de pronostic de grippage à partir des fenêtres optimales des FLM-règles retrouvées
This thesis presents a symbolic rule-based method that addresses system prognosis. It also details a successful application to complex vacuum pumping systems. More precisely, using historical vibratory data, we first model the behavior of the pumps by extracting a given type of episode rules, namely the First Local Maximum episode rules (FLM-rules). The algorithm that extracts FLM-rules also determines automatically their respective optimal temporal window, i.e. the temporal window in which the probability of observing the premiss and the conclusion of a rule is maximum. A subset of the extracted FLM-rules is then selected in order to further predict pumping system failures in a vibratory data stream context. Our contribution consists in selecting the most reliable FLM-rules, continuously matching them in a data stream of vibratory data and building a forecast time interval using the optimal temporal windows of the FLM-rules that have been matched
Styles APA, Harvard, Vancouver, ISO, etc.
13

Alileche, Lyes. « Use of BIM for the optimal management of existing buildings ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I058/document.

Texte intégral
Résumé :
Ce travail de thèse porte sur l'utilisation de la maquette numérique du bâtiment (BIM) pour l'optimisation de la gestion des bâtiments existants, en particulier le logement social. Ces bâtiments sont caractérisés par le vieillissement, les faibles performances énergétiques et le faible revenu des locataires dans le cas des logements sociaux. Les gestionnaires de ces bâtiments souffrent d’un manque de données concernant le patrimoine, ce qui peut entraîner des décisions inefficaces.La thèse présente d’abord les défis de la gestion technique de patrimoine, puis elle explique comment le BIM pourrait aider à relever ces défis en créant une plate-forme comprenant les informations sur le bâtiment et ses équipements ainsi que l'historique et la maintenance. Les avantages du modèle BIM sont illustrés à travers deux cas études : une résidence de logement social comprenant 50 appartements et un bâtiment de recherche sur le campus scientifique de l'Université de Lille.Le rapport de thèse est organisé en quatre parties.La première partie comprend l’état de l’art concernant les méthodes actuelles de gestion technique de patrimoine et l’apport du BIM à cette gestion.La deuxième partie décrit les étapes réalisées pour construire le modèle BIM d’une résidence de logement social. La troisième partie décrit l'implémentation du BIM pour optimiser la gestion des installations et la maintenance des bâtiments.La dernière partie décrit le développement d'un modèle BIM dynamique par la combinaison du model BIM et les données de confort et de consommations collectées avec des capteurs. Ce modèle sert à informer en temps réel les usagers et les gestionnaires
This research concerns the use of the Building Information Modeling (BIM) for the optimal management of existing buildings, in particular social housing buildings. These buildings are characterized by aging, poor energy performances and tenant’s low-income. The building managers suffer from lack of data concerning the buildings asset which could lead to poor operating decisions.The thesis discusses how the BIM could help to meet existing buildings challenges by the creation of a friendly comprehensive system including information about the building and equipment as well as the maintenance. The benefits of the BIM model are illustrated through two case studies, which concern a social housing residence and a research building respectively.This thesis is composed of four parts. The first part includes a literature review concerning the current methods of facility management, and the role of BIM in improving this management.The second part describes steps carried out to realize the BIM model of an existing social housing residence which includes 50 dwells.The third part describes the use of BIM to optimize facilities management and building maintenance. The last part describes the development of a dynamic BIM model using the as built BIM and real time data collected with sensors to inform users and managers about energy consumption and abnormal events
Styles APA, Harvard, Vancouver, ISO, etc.
14

Ben, Zakour Asma. « Extraction des utilisations typiques à partir de données hétérogènes en vue d'optimiser la maintenance d'une flotte de véhicules ». Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14539/document.

Texte intégral
Résumé :
Le travail produit s'inscrit dans un cadre industriel piloté par la société 2MoRO Solutions. La réalisation présentée dans cette thèse doit servir à l'élaboration d'un service à haute valeur, permettant aux exploitants aéronautiques d'optimiser leurs actions de maintenance. Les résultats obtenus permettent d'intégrer et de regrouper les tâches de maintenance en vue de minimiser la durée d'immobilisation des aéronefs et d'en réduire les risques de panne.La méthode que nous proposons comporte trois étapes : (i) une étape de rationalisation des séquences afin de pouvoir les combiner [...]
The present work is part of an industrial project driven by 2MoRO Solutions company.It aims to develop a high value service enabling aircraft operators to optimize their maintenance actions.Given the large amount of data available around aircraft exploitation, we aim to analyse the historical events recorded with each aircraft in order to extract maintenance forecasting. Theresults are used to integrate and consolidate maintenance tasks in order to minimize aircraft downtime and risk of failure. The proposed method involves three steps : (i) streamlining information in order to combinethem, (ii) organizing this data for easy analysis and (iii) an extraction step of useful knowledgein the form of interesting sequences. [...]
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ahmadi, Mehdi. « Gestion patrimoniale des réseaux d’assainissement : Impact de la qualité des données et du paramétrage du modèle utilisé sur l’évaluation de l’état des tronçons et des patrimoines ». Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0034/document.

Texte intégral
Résumé :
La gestion patrimoniale vise à choisir les meilleures décisions d’actions à mener sur les éléments du patrimoine, pour limiter les risques, optimiser les performances et réduire les couts. Dans ce manuscrit, nous avons adapté la définition spécifique de la gestion proactive des réseaux d’assainissement aux pratiques des gestionnaires pour passer de la maintenance post-défaillance à une politique de gestion patrimoniale proactive sur le long-terme. Pour cela, nous avons identifié les verrous suivants qui sont abordés dans le manuscrit. Premièrement, il est nécessaire de pouvoir élaborer les programmes d’inspections à partir de modèles de détérioration pour optimiser les budgets alloués. Malgré le développement de nombreux modèles de détérioration, l’influence de la qualité et de la disponibilité des données (incomplétude, imprécision, incertitude) sur la puissance prédictive des modèles n’a pas été étudiée en détail. Nous avons abordé cette question en proposant deux méthodes pour déterminer la liste des facteurs les plus informatifs à partir d’un échantillon représentatif. Entre autres, nos résultats suggèrent que l’imprécision sur une donnée est préférable à ne pas disposer de cette donnée. Nous avons également montré que la notion de « quartier » pourrait être utilisée, sous certaines conditions, pour compenser la non-connaissance de l’âge des conduites. Deuxièmement, une fois les conduites inspectées, leur état de santé doit être évalué à l’aide d’un protocole identique pour l’ensemble du patrimoine. Il est nécessaire que le protocole utilisé puisse minimiser les erreurs de sur- ou sous-estimation en fonction des choix des gestionnaires. Nous avons proposé une procédure prenant en compte ces choix, ainsi que l’état global du patrimoine considéré. Les études de sensibilité réalisées à partir des données d’inspection d’une partie du patrimoine du Grand Lyon montrent que l’état de santé évalué dépend fortement des choix faits par le gestionnaire concernant la sur- ou sous-estimation. Troisièmement, peu de patrimoines ont actuellement été complètement inspectés et évalués. Ainsi, l’utilisation d’un échantillon représentatif d’un patrimoine semble obligatoire pour pouvoir calibrer des modèles justifiant les décisions comme par exemple un modèle de détérioration. Après avoir généré différents échantillons de différentes tailles et selon différentes méthodes d’échantillonnage, à l’aide de la méthode de Monte Carlo, nous avons pu proposer une procédure pour étudier l’influence des caractéristiques de l’échantillon sur les résultats du modèle de détérioration. A partir d’analyses statistiques, nous avons montré que le processus de calage (des modèles) dépend fortement de l’échantillon disponible, et cela peut donc conduire à des résultats erronés
Asset management ensures that the best decisions are made for elements of the asset in order to reduce risks, optimize performance and minimize costs. A proactive asset management includes development of prioritization schemes for selection of inspection and rehabilitation needs. In this regard, we have identified the following bottlenecks which are addressed in this manuscript. First, there is a need of elaborating inspection programs based on deterioration models in order to be more cost-effective. The influence of availability and quality of data (imprecision, uncertainty, incompleteness) on models’ predictive power has not been studied in depth. We propose two methods to establish the list of the most informative factors from a representative sample of an asset stock. Among other results, this study would suggest that having imprecision in the database is preferable to having a database with no information on one specific factor. Second, once segments are inspected, they should be evaluated by a condition grading protocol. Though various condition grading protocols have been developed, they all fail to undertake the sensitivity of managers and stakeholders to the over or under-estimation of assets’ condition grade as many sources of uncertainty could be found within the condition assessment process. We propose a procedure in order to deal with this uncertainty. We also carry out some sensitivity analyses of parameters employed in this procedure. The results of these sensitivity tests are then applied to a part of the Greater Lyon asset stock. The results show that the assessment of segments into a condition grade depends heavily on the hypotheses that a manager could make about the under or over-estimation of its assets’ condition. Third, at the moment small number of utilities has completely inspected and evaluated their asset stocks. Therefore, the use of a representative sample from an asset stock in order to calibrate decision-support models as deterioration models seems mandatory. Nevertheless, in this regard we should tackle with following problematic issues: 1) How to draw a representative sample of an asset stock which reflects the characteristics of this asset stock? and 2) What is the impact of used sample on the calibration outcomes of these multivariate models? Hence, by drawing several samples with different sizes according to different sampling methods and applying Monte Carlo method, we have proposed a procedure in order to study the influence of available sample on the outcomes of a multivariate model. By proposing some statistical analyses, we showed that the calibration process depends extremely on available sample which could results, if this latter is not drawn properly, into erroneous conclusions
Styles APA, Harvard, Vancouver, ISO, etc.
16

Lebranchu, Alexis. « Analyse de données de surveillance et synthèse d'indicateurs de défauts et de dégradation pour l'aide à la maintenance prédictive de parcs de turbines éoliennes ». Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT082/document.

Texte intégral
Résumé :
Le secteur de l’énergie éolienne est en pleine expansion depuis les 10 dernières années. Le nombre et la taille des éoliennes ont été multipliés, ce qui accroît la difficulté et la criticité de la maintenance, et impose aux industriels de passer d’une maintenance corrective et systématique à une maintenance conditionnelle et prédictive. L'objectif de ces travaux est de développer des indicateurs de dégradation, en utilisant les données numériques fournies par le SCADA, disponibles à faible coût mais enregistrées à une faible fréquence d'échantillonnage (10 min) dans un objectif de suivi de production. Une analyse bibliographique approfondie des travaux réalisés sur la surveillance de parcs éoliens à partir de données SCADA montre que deux types d’approches sont généralement proposés. Les méthodes dites mono-turbines où un modèle de comportement d’une turbine est appris sur des périodes de bon fonctionnement, à partir duquel il est possible de créer des résidus mesurant la différence entre la valeur prédite par le modèle et la mesure en ligne, qui servent d’indicateurs de défaut. Les modèles mono-turbines ont la particularité d’utiliser des variables provenant de la même turbine du parc. Les deuxièmes méthodes, dites multi-turbines, sont des méthodes où l'effet parc et la similarité entre machines sont utilisés. Là où les recherches les plus récentes proposent principalement de créer des courbes de performances pour chaque machine du parc pendant une période de temps et de comparer ces courbes entre elles, nous faisons la proposition originale de combiner les deux approches et de comparer les résidus mono-turbines à une référence parc traduisant le comportement majoritaire des turbines du parc. Nous validons de manière extensive ces indicateurs en analysant leurs performances sur une base de données composée d’enregistrements de variables SCADA d’une durée de 4 ans sur un parc de 6 machines. Nous proposons aussi des critères de performances pertinents permettant d’évaluer de manière réaliste les gains et éventuels surcoûts que généreraient ces indicateurs s’ils étaient intégrés dans un outil de maintenance. Ainsi, nous montrons que le taux d’interventions inutiles associées à des fausses alarmes produites par les indicateurs de défaut, et qui provoquent un surcoût très important pour l’entreprise, peut être fortement diminué par la fusion d’indicateurs mono-turbines que nous proposons, tout en conservant une avance à la détection suffisante pour planifier la mise en place d’interventions par les équipes de maintenance
The wind energy sector has rapidly gown in the last 10 years. The number and the size of wind turbines have multiplied, which increases the difficulty and the criticality of the maintenance, and forces the wind turbine industry to change from a corrective and systematic maintenance to a conditional and predictive maintenance. The objective of this research is to develop failure indicators using numerical SCADA data, available at a low price but with a very low sampling frequency (10 min), in order to make online monitoring.A thorough bibliographical analysis on the surveillance of wind farms using SCADA data shows that two types of approaches are usually suggested. The first approach, called mono-turbine, where a good behaviour model of a turbine is learnt over unfaulty periods. With this approach, it is possible to create residuals measuring the difference between the predicted value by the model and the on-line measure, which serves as failure indicators. The mono-turbine models have the peculiarity in that they use variables coming from the same turbine as the farms. The second approach, called multi-turbine, are methods where the similarity between machines is used. Where the most recent researches mostly suggest creating performance curves for every machine on the farm during a period of time and comparing these curves between each other, we make the original proposal to combine both approaches and compare mono-turbine residuals with a farm reference representing the behaviour of the turbines of the farm.We validate in an extensive way those failure indicators by analysing their performances on a database made up of SCADA variable recordings of a duration of 4 years on a windfarm of 6 machines. We also propose relevant performance criteria allowing an estimation in a realistic way of the gains and possible additional costs which would generate these indicators if they were integrated into a tool of maintenance. Therefore, we show that the rate of useless interventions associated with false alarms produced by the failure indicators, which cause a heavy additional cost for the company, can be strongly decreased by the mono-turbines indicators merging that we propose, while preserving a sufficient detection time for the maintenance teams to plan interventions
Styles APA, Harvard, Vancouver, ISO, etc.
17

Redondin, Maxime. « Approches de classifications à partir de données fortement censurées pour l'analyse de fiabilité et la définition de stratégies de maintenance : application aux marquages routiers dans un contexte de véhicules autonomes ». Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1118/document.

Texte intégral
Résumé :
La qualité et la fiabilité des infrastructures routières jouent un rôle majeur dans la sécurité routière. Cela est d'autant plus vrai lorsque qu'on s'intéresse à la circulation de véhicules autonomes qui doivent être capables à terme de circuler seuls dans l'environnement routier. Les récents travaux menés au sein de VEDECOM montrent qu'une signalisation horizontale routière claire et visible est importante dans sa prise de décision. La détection des lignes de marquage sont en grande partie réalisée par des caméras. Afin d'optimiser cette approche et prévenir les situations de non détection, cette thèse propose des outils d'analyse de fiabilité et d'aide à la maintenance de la signalisation horizontale. Aujourd’hui, la fiabilité des marquages est basée le phénomène de rétro-réflexion : un véhicule éclaire avec ses feux de croisement un marquage qui renvoie la lumière vers le conducteur. Pour établir son niveau de dégradation, des campagnes d'inspection sont réalisées par des rétro-réflectomètres montés sur des véhicules traceurs. La littérature des trente dernières années présente essentiellement des modèles de dégradation basés sur des méthodes de régression. Ces derniers présentent de nombreuses difficultés à être déployés dans le cadre d'un plan de maintenance. Cette thèse propose d'aborder ces questions sous l'angle de la théorie de la fiabilité et de la maintenance tout en tenant compte des pratiques actuelles. Une ligne de marquage est ici interprétée comme un système multi-composants monté en parallèle. Cette thèse propose de l'analyser en quatre points. Premièrement, l'ensemble des inspections est formalisé en une base de suivi. Si des données sont manquantes et si l'historique de maintenance est indisponible, alors différentes approches basées sur une Classification Ascendante Hiérarchique (CAH) sont proposées afin de les estimer. Deuxièmement, l'entretien de la totalité d'une ligne est logistiquement délicat. Une CAH de la base de suivi a pour fonction d'établir les marquages suivant un même modèle de dégradation. Les clusters sont géographiquement localisés et corrélés à des situations précises comme un échangeur ou une agglomération. Pour ces raisons, ils sont interprétés comme des zones de maintenance stratégiques. Troisièmement, réaliser une analyse de Weibull des marquages. Les rétro-réflectomètres n'indiquent pas précisément les instants de défaillance. Ils sont statistiquement censurés à gauche, à droite ou par intervalle. En alternative à la méthode du Maximum de Vraisemblance, une approche basée sur un algorithme EM est proposé afin d'établir le modèle de Weibull et les censures estimées les plus vraisemblables. Dernièrement, deux stratégies de maintenance sont proposées : systématique par rapport à l'âge et conditionnée par la dégradation courante. Elles sont en adéquation avec les pratiques de maintenance. La première permet une gestion passive de l'entretien tandis que la seconde permet une connaissance avancée de la ligne de marquage dans le temps. A partir d'un système multi-composants non réparable et fortement censuré, les composants suivant un même modèle de dégradation sont classables, chaque groupe connait un modèle de durée de vie et finalement il est possible de déduire un plan de maintenance adapté
The quality and reliability of road infrastructure and its equipment play a major role in road safety. This is especially true if we are interested in autonomous car traffic. Recent papers from VEDECOM Institut proves that a clear and reliable road marking is important in it decison making. Marking lanes are detected by camera. These markings need an accurate maintenance strategy to guarantee that the markings remain perceptible. This report proposes different solutions based on the reliabilty and maintenance theory. Today, the markings reliability is based on the retroreflective illuminance. A retroreflective marking reflects light from a vehicle headlight back in the direction of the driver. Marking retroreflectivity can be dynamically inspected using a retroreflectometer. The litterature of the last thirty years proposes degradation models for retroreflective marking based on a regression model. All of them have a common weakness: they are difficult to apply directly to a given road network. This report presents maintenance models who math with current maintenance actions. A marking lane is interpreted as multi-unit systeme. All unit are laid in parallel. The global maintenance strategy is based on four points. First, the whole inspection data is formalized into one monitoring base. If inspection data is missing or if the maintenance historic is unavailable else an estimation process based on the Agglomerative Hierarchical Clustering (AHC) is proposed. Second, to replace a whole markings lane is logistically difficult to work. Again, an AHC of the monitoring proposed several clusters. Each cluster presents it own degradation model. Clusters are geographically tracked and correlated to specific situation (interchange, urban area, bypass...). That's why a cluster is interpreted as a maintenance strategic area. Thirdly, a Weibull analysis of each cluster is done. Current retroreflectometers cannot detects the exact faillure moment. this information is statistically censored. Three cases are identified : left, right and interval censored. To parameter a Weibull model, an EM Algorithm is propoased as an alternative to the Maximum Likelihood Estimator. This algorithm is also an estimator to censored markings life time. Lastly, two classic preventive maintenance strategies are proposed : systematic according to the age and conditionned to the current degradation. Each one is credible according the current maintenance practice. The first prposed a passsive managament of the markings maintenance. The second ensures an advanced knowledge of the road network over the time. On a multi-unit system no-repairable and strongly censored, units which admit the same degradation model are identified by a clustering approach. Each cluster present it own Weibull analysis. Finally, an adapted maintenance strategy is done
Styles APA, Harvard, Vancouver, ISO, etc.
18

Grandval, Philippe. « Caractérisation des variations génétiques constitutionnelles de signification inconnue dans le syndrome de Lynch ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5004/document.

Texte intégral
Résumé :
Le syndrome de Lynch est une affection héréditaire autosomique dominante due à des mutations constitutionnelles des gènes du système de réparation de l'ADN (MLH1, MSH2 et MSH6). Depuis 20 ans le réseau français des laboratoires impliqués dans le syndrome de Lynch a identifié un total de 6687 variants. Sept cent sept d'entre eux, essentiellement des variants faux sens, restent encore des variants de signification inconnue (VSI), sans utilité pour le conseil génétique. Le but de notre étude était de développer un algorithme permettant de classer les variants de signification inconnue. Les critères utilisés étaient les données des analyses in silico, phénotypiques (ségrégation, critères d'Amsterdam), l'état de la fonction MMR (MisMatch Repair) dans les cellules tumorales, les tests fonctionnels et d'épissage, ainsi que les données publiées. Cet algorithme a été appliqué à l'ensemble des VSI de la base de données française et nous a permis de caractériser 370 variants . Les données ont été intégrées dans la base de données française UMD des gènes MMR afin d'être disponibles pour la communauté scientifique. Grace aux données collectées par le réseau, nous avons également pu caractériser le phénotype du syndrome de Lynch. Nous avons ainsi confirmé que le cancer du sein ne fait pas partie du spectre du syndrome de Lynch et que les formes de ce syndrome associées à une mutation du gène EPCAM n'entrainent qu'un risque très faible de cancers de l'endomètre, permettant ainsi d'adapter les recommandations de suivi dans cette situation.de l'endomètre, permettant ainsi d'adapter les recommandations de suivi dans cette situation
Lynch syndrome is a frequent cancer predisposition with an autosomal dominant mode of inheritance and caused by heterozygous germ line mutations in one of the major DNA mismatch repair (MMR) genes (MLH1, MSH2 and MSH6). For 20 years, the French laboratories network involved in Lynch syndrome identified a total of 6687 variations. Among them, 707, mainly missense variations, remained variants of uncertain significance (VUS), thus could not be used for reliable genetic counseling. The aim of our study was to develop an algorithm able to classify VUS, according to the international consensus (IARC). This algorithm was constructed based on criteria usually required for genetic characterization such as in silico analysis, phenotypical data (segregation, Amsterdam criteria's), MMR status in tumor cells, functional assays, splicing analyses and published data. Data were registered in the French database. As a result of this work, we were able to classify 370 variants of the 707 (52,3%). As part of this work, we also analyzed phenotypical data of patients with Lynch syndrome and showed that breast cancer can definitively be excluded from the spectrum of Lynch-related cancers, and that EPCAM mutations, which may lead to Lynch syndrome, are associated with a very low incidence of endometrial cancer and have probably to be considered as an allelic disease with specific clinical recommendations
Styles APA, Harvard, Vancouver, ISO, etc.
19

Liu, Yinling. « Conception et vérification du système d'Information pour la maintenance aéronautique ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI133.

Texte intégral
Résumé :
Le soutien opérationnel est l’un des aspects les plus importants pour la maintenance aéronautique. Il vise essentiellement à fournir un portefeuille de services permettant d’implémenter la maintenance avec un niveau élevé d’efficacité, de fiabilité et d’accessibilité. L’une des principales difficultés du support opérationnel est qu’il n’existe pas de plate-forme intégrant tous les processus de maintenance des avions afin de réduire les coûts et d’améliorer le niveau de service. Il est donc nécessaire de réaliser un système autonome de maintenance des avions dans lequel toutes les informations de maintenance peuvent être collectées, organisées, analysées et gérées de manière à faciliter la prise de décision. Pour ce faire, une méthodologie innovante a été proposée, qui concerne la modélisation, simulation, vérification formelle et analyse des performances du système autonome mentionné. Trois axes ont été abordés dans cette thèse. Premier axe concerne la conception et simulation d'un système autonome pour la maintenance aéronautique. Nous proposons une conception innovante d'un système autonome prenant en charge la prise de décision automatique pour la planification de la maintenance. Deuxième axe vise la vérification de modèles sur des systèmes de simulation. Nous proposons une approche plus complète de la vérification des comportements globaux et des comportements opérationnels des systèmes. Troisième axe porte sur l'analyse de la performance des systèmes de simulation. Nous proposons une approche consistant à combiner un système de simulation à base d’agent avec une approche « Fuzzy Rough Nearest Neighbor », afin de mettre en œuvre la classification et prévision efficaces des pannes pour la maintenance des avions avec des données manquantes. Finalement, des modèles et systèmes de la simulation ont été proposés. Des expérimentations de la simulation illustrent la faisabilité de l’approche proposée
Operational support is one of the most important aspects of aeronautical maintenance. It aims to provide a portfolio of services to implement maintenance with a high level of efficiency, reliability and accessibility. One of the major difficulties in operational support is that there is no platform that integrates all aircraft maintenance processes in order to reduce costs and improve the level of service. It is therefore necessary to build an autonomous aircraft maintenance system in which all maintenance information can be collected, organized, analyzed and managed in a way that facilitates decision-making. To do this, an innovative methodology has been proposed, which concerns modelling, simulation, formal verification and performance analysis of the autonomous system mentioned. Three axes were addressed in this thesis. The first axis concerns the design and simulation of an autonomous system for aeronautical maintenance. We offer an innovative design of an autonomous system that supports automatic decision making for maintenance planning. The second axis is the verification of models on simulation systems. We propose a more comprehensive approach to verifying global behaviours and operational behaviours of systems. The third axis focuses on the analysis of the performance of simulation systems. We propose an approach of combining an agent-based simulation system with the “Fuzzy Rough Nearest Neighbor” approach, in order to implement efficient classification and prediction of aircraft maintenance failures with missing data. Finally, simulation models and systems have been proposed. Simulation experiments illustrate the feasibility of the proposed approach
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie