Littérature scientifique sur le sujet « Réparation des données »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Réparation des données ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Réparation des données"

1

Cachera, Faustine, et Astrid Wagner. « Le droit à réparation des victimes d’un traitement illicite de données : les précisions apportées par la CJUE ». Pin Code N° 16, no 4 (18 décembre 2023) : 18–22. http://dx.doi.org/10.3917/pinc.016.0018.

Texte intégral
Résumé :
Alors que le RGPD allait fêter ses cinq années d’application, la CJUE s’est positionnée pour la première fois sur la question du droit à réparation des victimes d’un traitement illicite de données dans un arrêt fort attendu des aficionados de la matière. Dans son arrêt du 4 mai 2023, la haute juridiction européenne apporte des précisions bienvenues du régime de responsabilité applicable en vertu du RGPD en exigeant la preuve d’un préjudice sans que ce dernier ne doive revêtir une certaine gravité tout en renvoyant au juge national la responsabilité de déterminer les modalités de réparation du préjudice subi par la victime en question.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Marchand, Anne. « Réparation et prévention, des liens ambivalents ». Regards N° 61, no 1 (11 juillet 2023) : 151–62. http://dx.doi.org/10.3917/regar.061.0151.

Texte intégral
Résumé :
Ni totalement défaits, ni vraiment actifs, les liens entre réparation et prévention sont marqués par l’ambivalence. Le dispositif de réparation des maladies professionnelles né de la loi de 1919 avait pourtant été d’emblée conçu comme un levier pour la prévention. Les textes prévoyaient effectivement la collecte de données, auprès des médecins et auprès des employeurs, qui devaient converger pour produire une connaissance utile à la prévention. Cette volonté de considérer la réparation comme une étape vers la prévention a été confirmée et renforcée à la création de la Sécurité sociale, puis par l’évolution jurisprudentielle de la faute inexcusable de l’employeur. Pour autant, un ensemble de phénomènes font obstacle aux liens voulus par le législateur. En précisant certains d’entre eux, cet article invite à les surmonter pour que la prévention des risques professionnels soit à la hauteur des enjeux dans un monde du travail en transformation.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Agbodo, Jean Paul. « Les Actions en Responsabilité Médicale Pour Faute de Diagnostic : Aspects de Droit Comparé Français et Ivoirien ». European Scientific Journal, ESJ 19, no 26 (30 septembre 2023) : 30. http://dx.doi.org/10.19044/esj.2023.v19n26p30.

Texte intégral
Résumé :
Si l’erreur de diagnostic ne constitue pas en elle-même une faute pénale, il en est tout autre de la faute de diagnostic qui prouvée, permet au patient d’engager la responsabilité du médecin- auteur du diagnostic, tant devant les juridictions judiciaires qu’administratives, outre les voies de règlement amiable du litige. Cette efficacité avec laquelle le législateur français entend prendre en compte les actions des patients-victimes contre les professionnels de santé pour la réparation des préjudices subis, reste inexistante en droit ivoirien, malgré les multiples dénonciations des manquements fautifs des médecins dans la prise en charge de leurs patients. Comme le souligne un auteur : « le droit comparé s’attache à une confrontation des divers systèmes de fonds et de formes et s’efforce d’en tirer les emprunts à des fins scientifiques et législatives. » Dans une telle perspective notre étude s’étant appuyée sur le droit français, a relevé les carences du législateur ivoirien en matière de droit de la santé. Mais encore, une absence concrète d’aide juridictionnelle dans le système juridique ivoirien devant permettre au patient victime d’une faute de diagnostique d’ester en justice pour exiger la réparation du dommage subi. L’étude alerte en conséquence, le législateur ivoirien sur la nécessité de s’inspirer du droit de la santé français, pour reformer son droit médical afin de juguler les fautes de diagnostique et garantir au patient un traitement sérieux de sa pathologie, conformément aux données acquises par la science. If the error of diagnosis does not constitute in itself a penal fault, it is quite different for the fault diagnosis which, once proven, allows the patient to engage the responsibility of the doctor-author of the diagnosis before the judicial jurisdictions to identify ways of amicable settlement of the litigation. This efficiency with which the French legislator intends to take into account the actions of patient-victims against health professionals for the reparation of the prejudices suffered, remains non-existent in Ivorian law, in spite of the multiple denunciations of the faulty failings of doctors in caring for their patients. As one author has pointed out: "comparative law is concerned with a comparison of the various systems of substance and form and endeavours to draw on them for scientific and legislative purposes". With this in mind, this study, based on French law, identified the shortcomings of the Ivorian legislature in the area of health law. There is a concrete absence of legal aid in the Ivorian legal system, which enables a patient who has been the victim of a diagnostic error to take legal action to claim compensation for the damage suffered. The study therefore alerts the Ivorian legislator to draw inspiration from French health law, to reform its medical law in order to curb diagnostic errors and guarantee patients serious treatment of their pathology, in accordance with the latest scientific findings.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Thébaud-Mony, Annie. « Les fibres courtes d’amiante sont-elles toxiques ? Production de connaissances scientifiques et maladies professionnelles ». Sciences sociales et santé 28, no 2 (2010) : 95–114. http://dx.doi.org/10.3406/sosan.2010.1964.

Texte intégral
Résumé :
Depuis une dizaine d’années, des historiens et des chercheurs en santé publique ont pris pour objet de recherche les conditions de production scientifique des effets sanitaires de nombreux produits industriels, notamment l’amiante. Ils montrent comment les industriels induisent en permanence de l’incertitude sur la toxicité de leurs produits par le biais des chercheurs dont ils contrôlent les travaux. Cet article retrace la genèse d’un débat venant semer le doute sur la toxicité des fibres courtes d’amiante et analyse son impact dans l’expertise collective sur la toxicité comparée de fibres d’amiante — courtes, fines et «réglementaires » , c’est-à-dire longues — dont les résultats ont été rendus publics en février 2009 par l’Agence française de sécurité sanitaire de l’environnement et du travail (AFSSET). Dans une première partie, l’auteur analyse le développement d’une «vraie fausse controverse » , engagée à l’initiative des industriels américains de l’automobile. Consacrées par la publication de résultats dans les revues scientifiques internationales à comité de lecture, les recherches financées par les industriels acquièrent une légitimité, en dépit de l’expression critique argumentée que ces travaux suscitent au sein même de la communauté scientifique américaine. Exporté hors de celle-ci et des conflits qui s’y déroulent, ce débat revêt le caractère d’une véritable question scientifique reprise à leur compte par les experts français réunis par l’AFSSET. La seconde partie analyse comment l’expertise collective AFSSET est elle-même dominée par les recherches contrôlées par les industriels. L’auteur montre une approche sélective des travaux de la littérature sur le sujet, dans le contexte d’une absence de données françaises et d’études sur l’exposition aux fibres d’amiante de différentes dimensions. Les conséquences qui en résultent, tant dans le champ de la production des connaissances que de la réparation et de la prévention des maladies professionnelles, sont discutées en conclusion.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Chevalier, A., J. Brière, M. Feurprier, F. Paboeuf et E. Imbernon. « Mise en évidence des secteurs d’activité économique à haut risque d’accident du travail : utilisation d’un outil de surveillance construit à partir des données de réparation des régimes de sécurité sociale ». Archives des Maladies Professionnelles et de l'Environnement 73, no 5 (novembre 2012) : 720. http://dx.doi.org/10.1016/j.admp.2012.09.039.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Nisse, Catherine, Natalie Vongmany, Nadège Lepage, Serge Faye, Lynda Larabi et Juliette Bloch. « Pathologies en relation avec le travail (PRT) dans le secteur du Commerce - réparation d’automobiles et de motocycles : données du Réseau national de vigilance et de prévention des pathologies professionnelles (RNV3P) 2001–2018 ». Archives des Maladies Professionnelles et de l'Environnement 81, no 5 (octobre 2020) : 737–38. http://dx.doi.org/10.1016/j.admp.2020.03.803.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Méplan, Catherine, Gerald Verhaegh, Marie-Jeanne Richard et Pierre Hainaut. « Metal ions as regulators of the conformation and function of the tumour suppressor protein p53 : implications for carcinogenesis ». Proceedings of the Nutrition Society 58, no 3 (août 1999) : 565–71. http://dx.doi.org/10.1017/s0029665199000749.

Texte intégral
Résumé :
The p53 protein is a multi-function nuclear factor that is activated in response to multiple forms of stress and controls the proliferation, survival, DNA repair and differentiation of cells exposed to potentially genotoxic DNA damage. Loss of p53 function by mutation is a frequent event in human cancer, and is thought to result in the capacity of cells to acquire and accumulate oncogenic mutations during the progression of neoplasia. The p53 protein is a metal-binding transcription factor that is inactivated by metal chelation and by oxidation in vitro. In intact cells, p53 protein activity is crucially dependent on the availability of Zn ions and is impaired by exposure to Cd, a metal which readily substitutes for Zn in a number of transcription factors. Inactivation by Cd suppresses the p53-dependent responses to DNA damage. Overall, these findings indicate that regulation by metals plays an important role in the control of p53, and that perturbation of this control may explain the carcinogenic potential of several metal compounds. Résumé La protéine p53 est un facteur nucléaire multi-fonctionnel qui est activé en réponse à de multiples formes de stress et qui contrôle la prolifération, la survie, la réparation de l’ADN et la différenciation de cellules exposées à des agents génotoxiques. La perte de la fonction de p53 par mutation est un évènement fréquent dans les cancers chez l’homme, et l’on considère que cette inactivation a pour conséquence de rendre la cellule susceptible d’accumuler rapidement des mutations oncogéniques au cours de la progression du cancer. La protéine p53 est un facteur de transcription qui lie les métaux et qui peut être inactivée in vitro par chélation des métaux ainsi que par oxydation. Dans des cellules en culture, l’activité biologique de la p53 dépend de la bio-disponibilité en Zn, et est altérée par l’exposition des cellules au Cd, un métal qui se substitue facilement au Zn dans nombre de facteurs de transcription Zn-dépendants. L’inactivation de p53 par le Cd inhibe les réponses p53-dépendantes suite à la formation de lésions de l’ADN. Globalement, ces données suggèrent que la régulation par les métaux joue un rôle important dans le contrôle de la p53, et que des perturbations de ce contrôle pourraient contribuer à expliquer le potentiel carcinogénique de certains composés métalliques.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Zegveld, Liesbeth. « Remedies for victims of violations of international humanitarian law ». International Review of the Red Cross 85, no 851 (septembre 2003) : 497–527. http://dx.doi.org/10.1017/s0035336100183790.

Texte intégral
Résumé :
Résumé Le droit international humanitaire garantit la protection et l'assistance aux victimes de conflits armés, Cependant, hrsque des personnes deviennent victimes de violations du droit humanitaire, la protection conférée par cette branche du droit cesse de fait. En particulier, a priori elle offre aux victimes de violations graves peu de possibilités d'obtenir réparation, voire aucune. Le droit international humanitaire diffère nettement sur ce point des tendances en droit international en la matière. Les droits de l'homme, branche de droit analogue mais distincte, définissent clairement le droit des victimes d'obtenir réparation en cas de violation des droits fondamentaux, Depuis peu, le Statut de Rome de la Cour pénale internationale autorise la Cour à déterminer dans sa decision l'ampleur du dommage, de la perte ou du préjudice causé aux victimes et à lew accorder une réparation. En revanche, le droit humanitaire ne garantit pas expressément le droit à un remède juridique aux victimes de violations. Cet article examine les moyens juridiques mis à la disposition des victimes de violations du droit international humanitaire par le droit interne et le droit international pour qu'elles fassent respecter lews droits fondamentaux. II étudie la question de savoir si les victimes ont droit à un remède et dans quelle mesure elles peuvent faire valoir ce droit. Une brève étude des pratiques nationale et internationale tendrait ainsi à prouver que, s'il n'y a guère de doute sur le fait que les victimes jouissent de droits au titre du droit international humanitaire, ces droits ne semblent toutefois pas justiciable et ne peuvent donc que difficilement donner lieu à un remède.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Brun, Philippe. « Personnes et préjudice ». Colloque 33, no 2 (24 novembre 2014) : 187–209. http://dx.doi.org/10.7202/1027451ar.

Texte intégral
Résumé :
La notion de préjudice, bien qu’elle soit une clé de voûte du droit de la responsabilité civile, en tant qu’exigence commune à tous les cas de responsabilité, demeure encore assez peu explorée conceptuellement en droit français. On l’a longtemps reléguée au rang des notions purement factuelles, et c’est seulement dans un passé récent que la doctrine s’y est véritablement intéressée. Il n’y a pas lieu de s’étonner dès lors de l’évolution du droit positif dans un sens toujours plus libéral à l’égard de victimes avides non seulement de compensation, mais aussi de stigmatisation des responsables. Ce libéralisme de la jurisprudence s’est manifesté de deux manières : d’un côté par une prolifération plus ou moins anarchique des chefs de préjudices indemnisables, et d’un autre côté par une dilution progressive des caractères requis du préjudice pour donner lieu à réparation. La présente étude a pour objet de suggérer quelques pistes de réflexions pour une appréhension plus rigoureuse, et résolument juridique de la notion de préjudice réparable, notamment à travers sa distinction du dommage. C’est aussi l’idée de réparation qui est envisagée, dans ses rapports avec d’autres « sanctions » du droit de la responsabilité.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Montcho, Bernard, et Séraphin Atidegla Capo. « Perceptions Paysannes et Caractérisation de la Motorisation des Exploitations Agricoles dans la Commune de Kétou ». European Scientific Journal, ESJ 19, no 20 (31 juillet 2023) : 124. http://dx.doi.org/10.19044/esj.2023.v19n20p124.

Texte intégral
Résumé :
Dans la Commune de Kétou, le recours aux machines agricoles par les paysans reste encore très faible. La force de travail dépend dans une large majorité de la force physique avec l’utilisation d’outils archaïques et sommaires comme la houe pour exécuter les différentes opérations culturales. Pour cause, le coût des tracteurs et celui des outils d’accompagnement sont bien au-delà des capacités financières de la plupart de ces exploitants. Ainsi entre cherté des machines, analphabétisme, cherté de la location des machines, rareté des tracteurs à louer, les paysans de cette Commune doivent mettre en place un fonds de roulement pour pallier au coût élevé de la maintenance/réparation. La présente recherche vise à analyser les perceptions paysannes et la caractérisation de la motorisation des exploitations agricoles dans la Commune de Kétou. L’approche méthodologique adoptée s’articule autour de la collecte des données, leur traitement et à l’analyse des résultats. Les données socio-économiques et démographiques des producteurs, le type et la nature des équipements pré et post-récolte utilisés, le degré de satisfaction ont été collectées à l’aide des questionnaires et de guide d’entretien auprès d’un échantillon de 135 paysans utilisant ou non des machines agricoles. La perception des populations sur les facteurs de la faible motorisation agricole a été analysée à partir de l’ Analyse Factorielle des Correspondances (AFC). L’analyse de la caractérisation de la motorisation des exploitations agricoles a été faite grâce aux statistiques descriptives et au calcul de pourcentage dans des tableaux croisés. Les résultats obtenus montrent que 46 % des enquêtés reconnaissent que les équipements agricoles modernes participent à la célérité des opérations de défrichements et de labours et 32 % pensent qu’elles favorisent l’accroissement de la production et même des rendements agricoles. Pour 22 % des paysans interrogés, le recours à la motorisation limite l’appel à la main-d’œuvre. Toutefois, le niveau d’appréciation de la motorisation agricole est diversement apprécié dans la Commune allant de très important, important, peu important et pas du tout important avec des taux de réponses respectifs de l’ordre de 68 %, 21 %, 8 % et 3 %. Nonobstant cela, 28,9 % des paysans ont regretté la cherté des machines et 20 % ont évoqué la cherté de la location de ces machines. Toutes ces raisons expliquent leur réticence à la motorisation des opérations culturales et leur attachement aux outils rudimentaires. Dans l’ensemble, les besoins en mécanisation restent grands et se traduisent par le nombre impressionnant des opérations agricoles qui nécessitent l’usage des machines agricoles. C’est le cas des operations de préparation du sol (43 %), labour (31 %), herbicidage (15 %) et désherbage sarclage (7 %). In the municipality of Ketou, the use of agricultural machinery by peasants is still very low. The working force depends for the most part on physical strength with the use of archaic and summary tools such as the hoe to carry out the various cultivation operations. For good reason, the cost of tractors and the accompanying tools are far beyond the financial capabilities of most of these operators. Thus, between the high cost of machines, illiteracy, the high cost of renting machines, and the scarcity of tractors for rent, the peasants of this municipality must set up a working capital to compensate for the high cost of maintenance/repair. The present research aims to analyze peasant perceptions and the characterization of the motorization of agricultural farms in the Municipality of Ketou. The methodological approach adopted revolves around the collection of data, their processing, and the analysis of the results. The socioeconomic and demographic data of the producers, the type and nature of the pre-and post-harvest equipment used, and the degree of satisfaction were collected using questionnaires and maintenance guides from a sample of 135 farmers using agricultural machinery or not. The perception of the populations on the factors of low agricultural motorization was analyzed from the Correspondence Factor Analysis (AFC). The analysis of the characterization of the motorization of agricultural farms was made thanks to descriptive statistics and percentage calculation in cross tables. The results obtained show that 46% of the respondents recognize that modern agricultural equipment contributes to the speed of clearing and plowing operations and 32% believe that they favor the increase of production and even agricultural yields. For 22% of the farmers surveyed, the use of motorization limits the call for labor. However, the level of appreciation of agricultural motorization is variously appreciated in the Municipality ranging from very important, important, unimportant, and not at all important with respective response rates of the order of 68%, 21%, 8%, and 3%. Notwithstanding this, 28.9% of the peasants regretted the high cost of the machines and 20% mentioned the high cost of renting these machines. All these reasons explain their reluctance to motorize cultivation operations and their attachment to rudimentary tools. Overall, the needs for mechanization remain great and are reflected in the impressive number of agricultural operations that require the use of agricultural machinery. This is the case for soil preparation operations (43%), plowing (31%), herbicide application (15%), and weeding (7%).
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Réparation des données"

1

Tzompanaki, Aikaterini. « Réponses manquantes : Débogage et Réparation de requêtes ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS223/document.

Texte intégral
Résumé :
La quantité croissante des données s’accompagne par l’augmentation du nombre de programmes de transformation de données, généralement des requêtes, et par la nécessité d’analyser et comprendre leurs résultats : (a) pourquoi telle réponse figure dans le résultat ? ou (b) pourquoi telle information n’y figure pas ? La première question demande de trouver l’origine ou la provenance des résultats dans la base, un problème très étudié depuis une 20taine d’années. Par contre, expliquer l’absence de réponses dans le résultat d’une requête est un problème peu exploré jusqu’à présent. Répondre à une question Pourquoi-Pas consiste à fournir des explications quant à l’absence de réponses. Ces explications identifient pourquoi et comment les données pertinentes aux réponses manquantes sont absentes ou éliminées par la requête. Notre travail suppose que la base de données n’est pas source d’erreur et donc cherche à fournir des explications fondées sur (les opérateurs de) la requête qui peut alors être raffinée ultérieurement en modifiant les opérateurs "fautifs". Cette thèse développe des outils formels et algorithmiques destinés au débogage et à la réparation de requêtes SQL afin de traiter des questions de type Pourquoi-Pas. Notre première contribution, inspirée par une étude critique de l’état de l’art, utilise un arbre de requête pour rechercher les opérateurs "fautifs". Elle permet de considérer une classe de requêtes incluant SPJA, l’union et l’agrégation. L’algorithme NedExplain développé dans ce cadre, a été validé formellement et expérimentalement. Il produit des explications de meilleure qualité tout en étant plus efficace que l’état de l’art.L’approche précédente s’avère toutefois sensible au choix de l’arbre de requête utilisé pour rechercher les explications. Notre deuxième contribution réside en la proposition d’une notion plus générale d’explication sous forme de polynôme qui capture toutes les combinaisons de conditions devant être modifiées pour que les réponses manquantes apparaissent dans le résultat. Cette méthode s’applique à la classe des requêtes conjonctives avec inégalités. Sur la base d’un premier algorithme naïf, Ted, ne passant pas à l’échelle, un deuxième algorithme, Ted++, a été soigneusement conçu pour éliminer entre autre les calculs itérés de sous-requêtes incluant des produits cartésien. Comme pour la première approche, une évaluation expérimentale a prouvé la qualité et l’efficacité de Ted++. Concernant la réparation des requêtes, notre contribution réside dans l’exploitation des explications polynômes pour guider les modifications de la requête initiale ce qui permet la génération de raffinements plus pertinents. La réparation des jointures "fautives" est traitée de manière originale par des jointures externes. L’ensemble des techniques de réparation est mis en oeuvre dans FixTed et permet ainsi une étude de performance et une étude comparative. Enfin, Ted++ et FixTed ont été assemblés dans une plate-forme pour le débogage et la réparation de requêtes relationnelles
With the increasing amount of available data and data transformations, typically specified by queries, the need to understand them also increases. “Why are there medicine books in my sales report?” or “Why are there not any database books?” For the first question we need to find the origins or provenance of the result tuples in the source data. However, reasoning about missing query results, specified by Why-Not questions as the latter previously mentioned, has not till recently receivedthe attention it is worth of. Why-Not questions can be answered by providing explanations for the missing tuples. These explanations identify why and how data pertinent to the missing tuples were not properly combined by the query. Essentially, the causes lie either in the input data (e.g., erroneous or incomplete data) or at the query level (e.g., a query operator like join). Assuming that the source data contain all the necessary relevant information, we can identify the responsible query operators formingquery-based explanations. This information can then be used to propose query refinements modifying the responsible operators of the initial query such that the refined query result contains the expected data. This thesis proposes a framework targeted towards SQL query debugging and fixing to recover missing query results based on query-based explanations and query refinements.Our contribution to query debugging consist in two different approaches. The first one is a tree-based approach. First, we provide the formal framework around Why-Not questions, missing from the state-of-the-art. Then, we review in detail the state-of-the-art, showing how it probably leads to inaccurate explanations or fails to provide an explanation. We further propose the NedExplain algorithm that computes correct explanations for SPJA queries and unions there of, thus considering more operators (aggregation) than the state of the art. Finally, we experimentally show that NedExplain is better than the both in terms of time performance and explanation quality. However, we show that the previous approach leads to explanations that differ for equivalent query trees, thus providing incomplete information about what is wrong with the query. We address this issue by introducing a more general notion of explanations, using polynomials. The polynomial captures all the combinations in which the query conditions should be fixed in order for the missing tuples to appear in the result. This method is targeted towards conjunctive queries with inequalities. We further propose two algorithms, Ted that naively interprets the definitions for polynomial explanations and the optimized Ted++. We show that Ted does not scale well w.r.t. the size of the database. On the other hand, Ted++ is capable ii of efficiently computing the polynomial, relying on schema and data partitioning and advantageous replacement of expensive database evaluations by mathematical calculations. Finally, we experimentally evaluate the quality of the polynomial explanations and the efficiency of Ted++, including a comparative evaluation.For query fixing we propose is a new approach for refining a query by leveraging polynomial explanations. Based on the input data we propose how to change the query conditions pinpointed by the explanations by adjusting the constant values of the selection conditions. In case of joins, we introduce a novel type of query refinements using outer joins. We further devise the techniques to compute query refinements in the FixTed algorithm, and discuss how our method has the potential to be more efficient and effective than the related work.Finally, we have implemented both Ted++ and FixTed in an system prototype. The query debugging and fixing platform, short EFQ allows users to nteractively debug and fix their queries when having Why- Not questions
Styles APA, Harvard, Vancouver, ISO, etc.
2

Martinez, Matias. « Extraction and analysis of knowledge for automatic software repair ». Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10101/document.

Texte intégral
Résumé :
La correction d'un bogue est une activité fréquente fait dans le cycle de vie du logiciel. L'activité vise à éliminer l'écart entre le comportement attendu d'un programme et ce qu'il fait réellement. Dans les dernières années, plusieurs approches automatiques de réparation de logiciels ont vu le jour pour synthétiser automatiquement des corrections de bugs. Malheureusement, la correction de bugs pourrait être encore difficile et coûteux pour les approches automatiques programme de réparation. Par exemple, pour réparer un bogue, une approche pourrait passer un temps infini à trouver une solution auprès d'un grand nombre de candidats. Dans cette thèse, nous visons à améliorer la réparabilité de bogues: augmenter le nombre de bogues réparés par des approches de réparation. Nous visons à ajouter réparation approches des stratégies pour optimiser la recherche de solutions. Nous présentons une stratégie qui consomme informations extraites de réparations effectuées par les développeurs. Ensuite, nous nous concentrons sur l'évaluation des méthodes de réparation automatique. Nous visons à introduire des procédures pour avoir significative évaluations d'approches.Nous définissons d'abord une méthode pour définir des jeux de données de défauts qui réduisent au minimum la possibilité de résultats biaisés. La manière dont un jeu de données est construite impacts sur le résultat d'une évaluation de l'approche. Nous présentons un jeu de données qui comprend un type particulier de défaut: les défauts instructions conditionnelles. Ensuite, nous cherchons à mesurer la réparabilité de ce type de défaut en évaluant trois approches de réparation automatique du logiciel
Bug fixing is a frequent activity done in the software life cycle. The activity aims at removing the gap between the expected behavior of a program and what it actually does. In the recent years, several automatic software repair approaches have emerged to automatically synthesize bug fixes. Unfortunately, bug fixing could be even hard and expensive for automatic program repair approaches. For example, to repair a given bug, a repair technique could spend infinite time to find a fix among a large number of candidate fixes. In this thesis, we aim at improving repairability of bugs. That is, to increase the number of bugs repaired by repair approaches. First, we concentrate on the study of repair search spaces i.e., all possible solutions for the fix. We aim at adding repair approaches strategies to optimize the search of solutions in the repair search space. We present a strategy to reduce the time to find a fix. The strategy consumes information extracted from repairs done by developers. Then, we focus on the evaluation of automatic repair approaches. We aim at introducing methodologies and evaluation procedures to have meaningful repair approach evaluations.We first define a methodology to define defect datasets that minimize the possibility of biased results. The way a dataset is built impacts on the result of an approach evaluation. We present a dataset that includes a particular kind of defect: if conditional defects. Then, we aim at measuring the repairability of this kind of defect by evaluating three state-of-the-art automatic software repair approaches
Styles APA, Harvard, Vancouver, ISO, etc.
3

Obry, Tom. « Apprentissage numérique et symbolique pour le diagnostic et la réparation automobile ». Thesis, Toulouse, INSA, 2020. http://www.theses.fr/2020ISAT0014.

Texte intégral
Résumé :
Le clustering est une des méthodes issues de l'apprentissage non-supervisé qui vise à partitionner un ensemble de données en différents groupes homogènes au sens d’un critère de similarité. Les données de chaque groupe partagent alors des caractéristiques communes. DyClee est un classifieur qui réalise une classification à partir de données numériques arrivant en flux continu et qui propose un mécanisme d’adaptation pour mettre à jour cette classification réalisant ainsi un clustering dynamique en accord avec les évolutions du système ou procédé suivi. Néanmoins la seule prise en compte des attributs numériques ne permet pas d’appréhender tous les champs d’application. Dans cet objectif de généralisation, cette thèse propose d’une part une extension aux données catégorielles nominales, d’autre part une extension aux données mixtes. Des approches de clustering hiérarchique sont également proposées afin d’assister les experts dans l’interprétation des clusters obtenus et dans la validation des partitions générées. L'algorithme présenté, appelé DyClee Mixte, peut être appliqué dans des divers domaines applicatifs. Dans le cas de cette thèse, il est utilisé dans le domaine du diagnostic automobile
Clustering is one of the methods resulting from unsupervised learning which aims to partition a data set into different homogeneous groups in the sense of a similarity criterion. The data in each group then share common characteristics. DyClee is a classifier that performs a classification based on digital data arriving in a continuous flow and which proposes an adaptation mechanism to update this classification, thus performing dynamic clustering in accordance with the evolution of the system or process being followed. Nevertheless, the only consideration of numerical attributes does not allow to apprehend all the fields of application. In this generalization objective, this thesis proposes on the one hand an extension to nominal categorical data, and on the other hand an extension to mixed data. Hierarchical clustering approaches are also proposed in order to assist the experts in the interpretation of the obtained clusters and in the validation of the generated partitions. The presented algorithm, called Mixed DyClee, can be applied in various application domains. In the case of this thesis, it is used in the field of automotive diagnostics
Styles APA, Harvard, Vancouver, ISO, etc.
4

Tahrat, Sabiha. « Data inconsistency detection and repair over temporal knowledge bases ». Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5209.

Texte intégral
Résumé :
Cette thèse étudie la faisabilité du raisonnement automatique sur des bases de connaissances DL-Lite temporelles TDL-Lite. Dans la première partie, nous avons traduit les bases de connaissances exprimées en TDL-Lite en logique temporelle de première ordre et en logique temporelle linéaire LTL qui sont munies de raisonneurs temporels permettant de vérifier leur satisfiabilité. Nous avons réalisé diverses expériences pour analyser les performances et la robustesse des différents raisonneurs sur des scénarios jouets et sur des bases de connaissances TDL-Lite synthétiques de tailles variables. Par ailleurs, lors du traitement des bases de connaissances avec une composante Assertionnel ABox de grande taille, nous avons également proposé une approche d’abstraction des assertions temporelles afin d’améliorer la scalabilité du raisonnement. Nous avons mené plusieurs tests pour évaluer l’efficacité de l’abstraction en mesurant le gain en termes de nombre d’assertions et d’individus dans la ABox. En outre, nous avons mesuré le nouveau temps d’exécution de quelques raisonneurs sur de telles bases de connaissances résumées. Enfin, dans l’objectif de faire de l’utilisation des bases de connaissances en TDL-Lite une réalité, nous avons présenté un outil complet avec une interface graphique qui permet de les concevoir. Notre interface est basée sur des principes de modélisation conceptuelle et elle est intégrée à notre outil de traduction et aux différents raisonneurs temporels. En considérant la ABox comme source d’incohérence, nous avons, dans la deuxième partie de la thèse, traité le problème de gestion des données incohérentes dans les bases de connaissances en TDL-Lite. En effet, nous avons proposé une approche de réparation de la ABox. Il s’agit du premier travail sur la réparation appliquée aux bases de connaissances en logiques de description temporelles. Pour ce faire, nous avons d’abord détecté et localisé les assertions temporelles sources d’incohérence et nous avons ensuite proposé une réparationtemporelle de ces données. Pour la détection, nous avons proposé une traduction des bases de connaissances de TDL-Lite vers DL-Lite; ce qui a permis d’utiliser des raisonneurs de la logique de description hautement optimisés et capables d’apporter une explication précise de l’incohérence. A partir de l’explication obtenue, nous avons ensuite proposé une méthode pour calculer automatiquement la meilleure réparation temporelle en fonction: a) des prédicats rigides, invariants dans le temps, autorisés dans la définition de la base de connaissances et b) de l’ordre temporel des assertions
We investigate the feasibility of automated reasoning over temporal DL-Lite (TDL-Lite) knowledge bases (KBs). We translate TDL-Lite KBs into a fragment of FO-logic and into LTL and apply off-the-shelf LTL and FO-based reasoners for checking the satisfiability. We conduct various experiments to analyse the runtime performance of different reasoners on toy scenarios and on randomly generated TDL-Lite KBs as well as the size of the LTL translation. To improve the reasoning performance when dealing with large ABoxes, our work also proposes an approach for abstracting temporal assertions in KBs. We run several experiments with this approach to assess the effectiveness of the technique by measuring the gain in terms of the size of the translation, the number of ABox assertions and individuals. We also measure the new runtime of some solvers on such abstracted KBs. Lastly, in an effort to make the usage of TDL-Lite KBs a reality, we present a fully-fledged tool with a graphical interface to design them. Our interface is based on conceptual modeling principles, and it is integrated with our translation tool and a temporal reasoner. In this thesis, we also address the problem of handling inconsistent data in Temporal Description Logic (TDL) knowledge bases. Considering the data part of the knowledge base as the source of inconsistency over time, we propose an ABox repair approach. This is the first work handling the repair in TDL Knowledge bases. To do so, our goal is two folds: 1) detect temporal inconsistencies and 2) propose a data temporal repair. For the inconsistency detection, we propose a reduction approach from TDL to DL which allows to provide a tight NP-complete upper bound for TDL concept satisfiability and to use highly optimized DL reasoners that can bring precise explanation (the set of inconsistent data assertions). Thereafter, from the obtained explanation, we propose a method for automatically computing the best repair in the temporal setting based on the allowed rigid predicates and the time order of assertions
Styles APA, Harvard, Vancouver, ISO, etc.
5

Yu, Mulin. « Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques ». Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Texte intégral
Résumé :
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
Styles APA, Harvard, Vancouver, ISO, etc.
6

Comignani, Ugo. « Interactive mapping specification and repairing in the presence of policy views ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1127/document.

Texte intégral
Résumé :
La migration de données entre des sources aux schémas hétérogènes est un domaine en pleine croissance avec l'augmentation de la quantité de données en accès libre, et le regroupement des données à des fins d'apprentissage automatisé et de fouilles. Cependant, la description du processus de transformation des données d'une instance source vers une instance définie sur un schéma différent est un processus complexe même pour un utilisateur expert dans ce domaine. Cette thèse aborde le problème de la définition de mapping par un utilisateur non expert dans le domaine de la migration de données, ainsi que la vérification du respect par ce mapping des contraintes d'accès ayant été définies sur les données sources. Pour cela, dans un premier temps nous proposons un système dans lequel l'utilisateur fournit un ensemble de petits exemples de ses données, et est amené à répondre à des questions booléennes simples afin de générer un mapping correspondant à ses besoins. Dans un second temps, nous proposons un système permettant de réécrire le mapping produit de manière à assurer qu'il respecte un ensemble de vues de contrôle d'accès définis sur le schéma source du mapping. Plus précisément, le premier grand axe de cette thèse est la formalisation du problème de la définition interactive de mappings, ainsi que la description d'un cadre formel pour la résolution de celui-ci. Cette approche formelle pour la résolution du problème de définition interactive de mappings est accompagnée de preuves de bonnes propriétés. A la suite de cela, basés sur le cadre formel défini précédemment, nous proposons des algorithmes permettant de résoudre efficacement ce problème en pratique. Ces algorithmes visent à réduire le nombre de questions auxquelles l'utilisateur doit répondre afin d'obtenir un mapping correspondant à ces besoins. Pour cela, les mappings possibles sont ordonnés dans des structures de treillis imbriqués, afin de permettre un élagage efficace de l'espace des mappings à explorer. Nous proposons également une extension de cette approche à l'utilisation de contraintes d'intégrité afin d'améliorer l’efficacité de l'élagage. Le second axe majeur vise à proposer un processus de réécriture de mapping qui, étant donné un ensemble de vues de contrôle d'accès de référence, permet d'assurer que le mapping réécrit ne laisse l'accès à aucune information n'étant pas accessible via les vues de contrôle d'accès. Pour cela, nous définissons un protocole de contrôle d'accès permettant de visualiser les informations accessibles ou non à travers un ensemble de vues de contrôle d'accès. Ensuite, nous décrivons un ensemble d'algorithmes permettant la réécriture d'un mapping en un mapping sûr vis-à-vis d'un ensemble de vues de contrôle d'accès. Comme précédemment, cette approche est complétée de preuves de bonnes propriétés. Afin de réduire le nombre d'interactions nécessaires avec l'utilisateur lors de la réécriture d'un mapping, une approche permettant l'apprentissage des préférences de l'utilisateur est proposée, cela afin de permettre le choix entre un processus interactif ou automatique. L'ensemble des algorithmes décrit dans cette thèse ont fait l'objet d'un prototypage et les expériences réalisées sur ceux-ci sont présentées dans cette thèse
Data exchange between sources over heterogeneous schemas is an ever-growing field of study with the increased availability of data, oftentimes available in open access, and the pooling of such data for data mining or learning purposes. However, the description of the data exchange process from a source to a target instance defined over a different schema is a cumbersome task, even for users acquainted with data exchange. In this thesis, we address the problem of allowing a non-expert user to spec- ify a source-to-target mapping, and the problem of ensuring that the specified mapping does not leak information forbidden by the security policies defined over the source. To do so, we first provide an interactive process in which users provide small examples of their data, and answer simple boolean questions in order to specify their intended mapping. Then, we provide another process to rewrite this mapping in order to ensure its safety with respect to the source policy views. As such, the first main contribution of this thesis is to provide a formal definition of the problem of interactive mapping specification, as well as a formal resolution process for which desirable properties are proved. Then, based on this formal resolution process, practical algorithms are provided. The approach behind these algorithms aims at reducing the number of boolean questions users have to answers by making use of quasi-lattice structures to order the set of possible mappings to explore, allowing an efficient pruning of the space of explored mappings. In order to improve this pruning, an extension of this approach to the use of integrity constraints is also provided. The second main contribution is a repairing process allowing to ensure that a mapping is “safe” with respect to a set of policy views defined on its source schema, i.e., that it does not leak sensitive information. A privacy-preservation protocol is provided to visualize the information leaks of a mapping, as well as a process to rewrite an input mapping into a safe one with respect to a set of policy views. As in the first contribution, this process comes with proofs of desirable properties. In order to reduce the number of interactions needed with the user, the interactive part of the repairing process is also enriched with the possibility of learning which rewriting is preferred by users, in order to obtain a completely automatic process. Last but not least, we present extensive experiments over the open source prototypes built from two contributions of this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
7

Rantsoudis, Christos. « Bases de connaissance et actions de mise à jour préférées : à la recherche de consistance au travers des programmes de la logique dynamique ». Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30286.

Texte intégral
Résumé :
Dans la littérature sur les bases de données, il a été proposé d'utiliser des contraintes d'intégrité actives afin de restaurer l'intégrité de la base. Ces contraintes d'intégrité actives consistent en une contrainte classique augmentée d'un ensemble d'actions de mise à jour préférées qui peuvent être déclenchées quand la contrainte est violée. Dans la première partie de cette thèse, nous passons en revue les principales stratégies de réparation qui ont été proposées dans la littérature et proposons une formalisation par des programmes de la Logique Dynamique. L'outil principal que nous employons dans notre recherche est la logique DL-PA, une variante de PDL récemment introduite. Nous explorons ensuite une nouvelle façon dynamique de réparer les bases de données et comparons sa complexité calculatoire et ses propriétés générales aux approches classiques. Dans la seconde partie de la thèse nous abandonnons le cadre propositionnel et adaptons les idées susmentionnées à des langages d'un niveau supérieur. Plus précisément, nous nous intéressons aux Logiques de Description, et étudions des extensions des axiomes d'une TBox par des actions de mise à jour donnant les manières préférées par lesquelles une ABox doit être réparée dans le cas d'une inconsistance avec les axiomes de la TBox. L'extension des axiomes d'une TBox avec de telles actions de mise à jour constitue une nouvelle TBox, qui est active. Nous nous intéressons à la manière de réparer une ABox en rapport avec une telle TBox active, du point de vue syntaxique ainsi que du point de vue sémantique. Étant donnée une ABox initiale, l'approche syntaxique nous permet de construire un nouvel ensemble d'ABox dans lequel nous identifions les réparations les mieux adaptées. D'autre part, pour l'approche sémantique, nous faisons de nouveau appel au cadre de la logique dynamique et considérons les actions de mise à jour, les axiomes d'inclusion actives et les réparations comme des programmes. Étant donné une TBox active aT , ce cadre nous permet de vérifier (1) si un ensemble d'actions de mise à jour est capable de réparer une ABox en accord avec les axiomes actifs d'aT en effectuant une interprétation locale des actions de mise à jour et (2) si une ABox A' est la réparation d'une ABox donnée A sous les axiomes actifs d'aT moyennant un nombre borné de calculs, en utilisant une interprétation globale des actions de mise à jour. Après une discussion des avantages de chaque approche nous concluons en proposant une intégration des approches syntaxiques et sémantiques dans une approche cohésive
In the database literature it has been proposed to resort to active integrity constraints in order to restore database integrity. Such active integrity constraints consist of a classical constraint together with a set of preferred update actions that can be triggered when the constraint is violated. In the first part of this thesis, we review the main repairing routes that have been proposed in the literature and capture them by means of Dynamic Logic programs. The main tool we employ for our investigations is the recently introduced logic DL-PA, which constitutes a variant of PDL. We then go on to explore a new, dynamic kind of database repairing whose computational complexity and general properties are compared to the previous established approaches. In the second part of the thesis we leave the propositional setting and pursue to adapt the aforementioned ideas to higher level languages. More specifically, we venture into Description Logics and investigate extensions of TBox axioms by update actions that denote the preferred ways an ABox should be repaired in case of inconsistency with the axioms of the TBox. The extension of the TBox axioms with these update actions constitute new, active TBoxes. We tackle the problem of repairing an ABox with respect to such an active TBox both from a syntactic as well as a semantic perspective. Given an initial ABox, the syntactic approach allows us to construct a set of new ABoxes out of which we then identify the most suitable repairs. On the other hand, for the semantic approach we once again resort to a dynamic logic framework and view update actions, active inclusion axioms and repairs as programs. Given an active TBox aT , the framework allows to check (1) whether a set of update actions is able to repair an ABox according to the active axioms of aT by interpreting the update actions locally and (2) whether an ABox A' is the repair of a given ABox A under the active axioms of aT using a bounded number of computations by interpreting the update actions globally. After discussing the strong points of each direction, we conclude by combining the syntactic and semantic investigations into a cohesive approach
Styles APA, Harvard, Vancouver, ISO, etc.
8

Laval, Quentin. « Un environnement de modélisation et d'aide à la décision pour un problème de livraison - collecte sous incertitudes : application à la PFL de l'AP-HM ». Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0193.

Texte intégral
Résumé :
Ce travail de thèse s’inscrit dans le projet logistique de l’Assistance Publique Hôpitaux de Marseille. En effet l’AP-HM a ouvert une plateforme logistique en avril 2013 afin de centraliser les activités de production de repas, de stérilisation, de stockage de produits hôteliers et de blanchiment de linge. Ces produits finis sont ensuite transportés dans des contenants, grâce à une équipe de transport, vers les quatre centres hospitaliers de Marseille. Le but de cette étude de recherche est de proposer une méthode et un outil permettant d’aider l’équipe de régulation des transports pour la gestion des ressources de transport. Cette étude prend en compte la variabilité des temps de trans- port ainsi que les aléas pouvant intervenir dans le cycle de vie d’une tournée de transport.Pour cela nous commençons par réaliser un modèle de connaissance du système logistique existant grâce à la méthodologie ASCI. Nous proposons ensuite une méthode et un outil permettant la génération de planning de tournées quotidien. Cette méthode est une solution ad-hoc qui intègre la résolution d’un problème de charge- ment, la planification de véhicules et d’équipages, ainsi qu’une représentation et une mo- délisation statistique de la variabilité des temps de transports en milieu urbain. En effet, le taux de congestion quotidien peut faire varier un temps de transport du simple au double. Enfin pour la gestion des aléas, nous proposons une méthode de réparation de planning que nous modélisons grâce aux systèmes multi agents. Ce dernier point de ce travail de thèse permet, en fonction des scénarios de défaillance, de proposer la solution la plus adaptée aux équipes de transport
This thesis work is part of the logistics project of the Assistance Publique-Hôpitaux de Marseille. Indeed the AP-HM opened a logistics platform in April 2013 in order to central- ize production activities of meals, sterilization, storage product and bleaching of linen. These products are then transported in containers, thanks to a team of transport, to the four hospitals in Marseille. After consumption of the products, by healthcare units, used containers must be re- ported to the logistics platform that they are disinfected and reinstated in the production loop. The purpose of this research study is to propose a method and a tool to help the team of regulation of transport for the management of transport resources. This study takes into account the variability of the transport time and the hazards that could inter- vene in the life cycle of a tour of transport.For this we make a knowledge model of logistics system using the ASCI methodology. This model of knowledge is then validated with a simulation model. We offer then a method and a tool allowing the generation of daily tour schedule. This method is an ad - hoc solu- tion that integrates solving a problem loading, planning for vehicle and crew, as well as representation and statistical modelling of variability in the time of transport in urban areas. Indeed, the daily congestion rate can vary a transport time of one to two. Finally, for the management of the ups and downs, we propose a method of repair of planning that we model with multi agent systems. This last point of this thesis according to failure sce- narios, makes it possible to propose the best solution to the transport staff
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gigot, Sébastien. « Contribution à la conception d’une base de données de maintenabilité opérationnelle dynamique : Proposition de prise en compte des facteurs pénalisants dans l’estimation du MTTR [Mean Time To Repair] ». Ecole nationale d'ingénieurs (Saint-Etienne), 2013. http://www.theses.fr/2013ENISE021.

Texte intégral
Résumé :
Cette thèse a pour but d’exposer une méthodologie d’évaluation du risque de ne pas satisfaireaux exigences de maintenabilité pour des équipements industriels complexes en exploitation. Elle permet de mieux comprendre la problématique du dépassement de la durée de réparation lié aux activités de maintenabilité opérationnelle. Peu d’études sont à l’heure actuelle, consacrées à ce sujet rendu complexe par la multitude d’activités différentes et un niveau d’exigence sans cesse croissant. Les exigences de maintenabilité et de disponibilité apparaissent de plus en plus. Notre proposition porte sur l’évaluation des critères de maintenabilité critiques intervenant dans un processus de maintenabilité afin d’optimiser l’enchaînement des actions depuis la panne jusqu’à la remise en service. L’analyse de ces facteurs pénalisants nous conduit à développer un modèle d’estimation du MTTR pour minimiser le delta des dérives liées au dépassement des délais de réparation. Les résultats illustrés d’exemples concrets permettent d’apprécier la maintenabilité du système au regard des objectifs fixés et de proposer le cas échéant, des actions en diminution de risques pour optimiser l’indisponibilité du système. Ce travail s’est intéressé au développement d'une démarche de modélisation des systèmes complexes pour l'évaluation des stratégies de maintenance. Son aboutissement est un outil d'aide à la décision pour construire et satisfaire aux programmes de maintenance en effectuant les choix les mieux adaptés. Nos travaux ont portés sur la maintenabilité opérationnelle et sur l’importance de l’estimation des durées de réparation en prenant en compte le contexte dans lequel évolue le système afin d’identifier les événements pénalisants. Ces travaux viennent souligner l’importance à accorder aux méthodologies de traitement d’une panne, en proposant de reconsidérer le concept de maintenabilité opérationnelle afin de mieux maîtriser les aléas liés au dépassement des durées de réparation
This thesis is intended to describe a methodology for assessment of the risk of not satisfying the requirements of maintainability for industrial equipment complex in operation. It allows you to better understand the problematic of the overrun of the duration of repair linked to the activities of operational serviceability. Few of the studies are at the present time, devoted to this topic made complex by the multitude of different activities and a level of requirement always growing. The requirements of maintainability and availability appear more and more. Our proposal focuses on the evaluation of the criteria of maintainability criticisms involved in a process of maintainability in order to optimize the sequence of actions since the fault up to the rehabilitation service. The analysis of these inhibiting factors led us to develop a model for estimating of the MTTR to minimize the delta of derivatives linked to the overrun of the repair time. The results illustrated by specific examples allow to assess the maintainability of the system in relation to the objectives set and to propose, if necessary, actions to decrease of risks to optimize the system unavailability. This work is interested in the development of an approach to the modeling of complex systems for the assessment of maintenance strategies. Its culmination is a tool to help in the decision to build and meet the maintenance programs by performing the choice best suited. Our works have focused on the operational maintainability and on the importance of the estimation of repair times taking into account the context in which evolved the system in order to identify the events penally. These works have stressed the importance to be given to the methodology of treatment of a failure, by proposing to reconsider the concept of maintainability operational in order to better control the uncertainties related to the excedance of repair times
Styles APA, Harvard, Vancouver, ISO, etc.
10

Khraibani, Hussein. « Modélisation statistique de données longitudinales sur un réseau routier entretenu ». Ecole centrale de Nantes, 2010. http://www.theses.fr/2010ECDN0040.

Texte intégral
Résumé :
Nous nous intéressons à la modélisation des lois d’évolutions des dégradations de chaussées entretenues. Pour cela, cette thèse fait une revue des modèles et outils de modélisation, notamment l’analyse des données de survie (MADS) qui a fait l’objet développements importants au LCPC. Pour tirer parti du fait que les bases de données comportent, aujourd’hui, des séries d’observations sur chaque section routière, elle propose une autre approche fondée sur la mise en œuvre de modèles non linéaires mixtes. En procédant à une comparaison des capacités d’ajustement et de prédiction de ces modèles, d’abord sur des bases de données artificielles, non bruitées et bruitées, puis sur une base de données provenant d’un programme de suivi de section test, et enfin sur une base de données issue du suivi périodique d’un réseau routier réel, la thèse permet de tirer des conclusions claires sur les conditions et le domaine d’application des modèles
Road transportation has a direct impact on a country's economy. Infrastructures, particularly pavements, deteriorate under the effect of traffic and climate. As a result, they most constantly undergo maintenance which often requires expensive works. The optimization of maintenance strategies and the scheduling of works necessarily pass by a study that makes use of deterioration evolution laws and accounts for the effect of maintenance on these laws. In this respect, numerous theoretical and experimental works ranging linear and nonlinear regressions to more sophisticated methods such as Markov chain have been conducted. The thesis presents a survey of models and methods and focuses on the analysis of survival data (MADS), an analysis which constituted the objective of important works at LCPC. In order to acount for the fact that current databases contain repeated measurements of each pavement section, the thesis proposes a different approach based on the use of nonlinear mixed-effects models (NLME). First, it carries out a comparison between the NLME and MADS models on different databases in terms of the goodness of fit and prediction capability. The comparison then allows to draw conclusions about the applicability of the two models
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Réparation des données"

1

Monitoring technologies for bridge management. [Brentwood] : Multi Science Pub., 2011.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ingram, Geoff. High-Performance Oracle : Proven Methods for Achieving Optimum Performance and Availability. Wiley & Sons, Incorporated, John, 2009.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

High-Performance Oracle : Proven Methods for Achieving Optimum Performance and Availability. Wiley, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Réparation des données"

1

NAZAROV, Anatoly, János SZTRIK et Anna KVACH. « Résultats récents en files d’attente avec rappels à sources finies avec collisions ». Dans Théorie des files d’attente 1, 247–97. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch8.

Texte intégral
Résumé :
L’objectif de ce chapitre est de donner un aperçu des résultats récents sur les systèmes de files d’attente avec rappel à source finie à serveur unique avec collision de clients. Il s’agit notamment de déterminer lorsque le serveur est fiable et de modéliser les pannes et les réparations aléatoires du serveur selon qu’il est inactif ou occupé. Les méthodes numériques, de simulation et asymptotiques, assistées par des outils, sont considérées sous la condition d’un nombre croissant et illimité de sources.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie