To see the other types of publications on this topic, follow the link: Réutilisation des données.

Dissertations / Theses on the topic 'Réutilisation des données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Réutilisation des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mehira, Djamel. "Bases de données images : application à la réutilisation en synthèse d'images." La Rochelle, 1998. http://www.theses.fr/1998LAROS017.

Full text
Abstract:
L’objectif de la thèse consiste à construire un système de recherche d'informations (SRI) adapté à une base d'images de synthèse. Les SRI sont des systèmes qui permettent l'indexation et la recherche de documents satisfaisant un besoin d'information de l'usager. Les premiers SRI ont été utilisés dans la recherche documentaire. Leur champ d'application s'élargit à cause de la masse et de la nature (multimédia) des informations à stocker de nos jours. Nous ne pouvons réutiliser telles quelles les solutions proposées dans ce domaine de recherche. Les SRI actuellement construits pour les bases de données d'images utilisent les connaissances exogènes fournies par un expert pour construire la structure d'indexation. Ces connaissances concernent le contenu de l'image. Nous désirons construire un SRI avec construction automatique de la structure d'indexation (ou descripteur) en utilisant le texte source qui a permis la construction de l'image de synthèse. L’utilisation du SRI ainsi construit n'a pas pour objectif uniquement la recherche du document adéquat. L’objectif final est de réduire le temps de production (plusieurs heures parfois) d'une image de synthèse. Pour le réduire les travaux en cours dans le domaine de synthèse d'images, consistent le plus souvent à définir de nouveaux algorithmes plus efficaces et à profiter de la montée en puissance des machines. Pour satisfaire l'augmentation de la demande en images de synthèse, nous choisissons de faciliter la réutilisation d'images déjà produites. Les descripteurs et les contenus des modèles géométriques des composants réutilisables sont stockés dans une base de données. La stratégie de réutilisation que nous proposons consiste à construire à partir du texte source de l'image de synthèse à produire, le descripteur correspondant ; à utiliser ce descripteur pour rechercher dans la base de données le contenu du modèle géométrique ; à remplacer dans le texte source de l'image cible, le calcul du modèle géométrique par la lecture de ce contenu. Le texte source, à partir duquel est générée l'image, est construit en utilisant une bibliothèque de fonctions prédéfinies fournies par l'environnement de développement choisi. Il peut comporter des modules spécifiques. Dans un premier temps notre dispositif de réutilisation s'appuie sur les modèles géométriques. Ces modèles ont une structure de base indépendante de l'environnement de développement.
APA, Harvard, Vancouver, ISO, and other styles
2

Bilasco, Ioan Marius. "Une approche sémantique pour la réutilisation et l’adaptation de données 3D." Grenoble 1, 2007. http://www.theses.fr/2007GRE10262.

Full text
Abstract:
Le nombre d'applications et de dispositifs d'accès adoptant le 30 accroît sans cesse. Cette tendance encourage la création d'outils pour la recherche, la réutilisation et l'adaptation de donn5es 30. La plupart du temps, ces outils sont développés dans le cadre d'une application spécifique. Ceci est er partie dû au fait que les données 30 ne sont décrites généralement que par leur géométrie et par leur apparence ce qui rend difficile leur utilisation indépendamment d'un domaine d'application spécifique. Nous proposons une solution qui complète la description par des annotations sémantiques et les organise au sein d'un modèle (30SEAM) suivant la dimension décrite (géométrie, apparence, topologie, sémantique et profil média). Afin d'accommoder la variabilité du modèle en termes de descriptions sémantiques, nous proposons une extension d'OQL spécifique au modèle 30SEAM. Une plate-forme (30AF) fédère les moyens d'instanciation et d'interrogation des descriptions. Au-dessus de cette plate-forme, nous construisons une plate-forme (30S0L) pour la réutilisation de données 30 et de leur sémantique. Nous adoptons une approche d'adaptation de données 30 à base de règles interprétées et exécutées par une plate-forme d'adaptation (Adapt30). La réutilisation et l'adaptation s'appuient sur l'utilisation d'un standard XML de représentation de données 30 : le X30. Les transformations apportées aux données sont décrites en utilisant XSL T. Une application de gestion de scènes 30 urbaines est proposée pour valider les divers formalismes introduits par notre approche. L'application s'appuie sur une représentation MPEG-7 de l'entrepôt de descriptions. L'interrogation est assurée par XQuery
The number of applications and access devices 30 enabled increases steadily. This trend is encouraging the development of tools for the retrieval, the reuse and the adaptation of 30 data. Usually, such tools are developed in the narrow context of a specifie application. This is partly because the 30 data are usually defined only by their geometry and by their appearance and are difficult to be considered in contexts independent from a specifie application domain. We consider these issues by proposing a solution that enhances 30 data description by semantic annotations and organizes them into a model (30SEAM) according to the dimension described: geometry, appearance, topology, semantics and media profile. To accommodate the variability of the model in terms of semantic descriptions, we propose an extension of the OQL using 30SEAM specifie constructs. A platform (30AF) federates the instantiation and the interrogation of such descriptions. Above this platform, we build a platform focusing on the reuse of 30 data and their semantics (30S0L). Ln addition, we are adopting an approach of adapting 30 data based on semantic rules interpreted and executed by an adaptation platform (Adapt30). The reuse and the adaptation processes employ an XML standard for 30 data: X30. The transformations applied to data are implemented using XSL T. An application that concerns the management of 30 urban scenes is proposed in order to validate the various formalisms introduced by our approach. The application is based on the instantiation of the description model usin MPEG-7. The query process is supported by XQuery
APA, Harvard, Vancouver, ISO, and other styles
3

Hadji, Brahim. "Utilisation et réutilisation des données d'un système d'information clinique : application aux données de pilotage à l'hôpital européen Georges Pompidou." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066039/document.

Full text
Abstract:
Les technologies de l’information et de la communication se sont considérablement développées dans tous les secteurs de l’économie. Dans le domaine de la santé, et tous particulièrement dans le secteur hospitalier, les investissements se sont considérablement accrus, notamment avec la mise en place de systèmes d’information clinique (SIC) intégrés. Les hypothèses derrière ces investissements sont que la mise en œuvre d’un SIC peut améliorer à la fois l’efficience d’un hôpital et la qualité des soins. Pour être validée, ces hypothèses nécessitent que soit mise au point une méthodologie de mesure du degré de mise en place d’un SIC, de l’efficience hospitalière puis de la qualité des soins. Ce travail est centré d’une part sur la méthodologie de mesure de l’utilisation d’un SIC et d’autre part sur la mesure de l’efficience hospitalière. Le cadre applicatif du travail est, dans le premier cas, le système d’information clinique de l’HEGP et dans le second les hôpitaux de court séjour de l’AP-HP dont fait partie l’HEGP. Après une étude de la littérature sur l’évaluation de l’utilisation et de de la satisfaction d’un SIC, la première partie de la thèse est organisée autour de deux études. Une première étude longitudinale de 2004 à 2014 permet d’analyser l’évolution de l’utilisation et de la satisfaction au travers d’un groupe multi professionnel d’utilisateurs et d’analyser leurs déterminants avec des méthodes d’équations structurelles. En post-adoption précoce (4 ans), l'utilisation du SIC, la qualité du SIC et l’utilité perçue (PU) expliquent 53% de la variance de la satisfaction. Dans la phase de post-adoption très tardive (>10 ans), l’effet de l’utilisation n’est plus significatif, par contre, la qualité du SIC, la confirmation des attentes et la PU sont les paramètres les plus liés à la satisfaction expliquant 86% de sa variance. Cependant, la satisfaction et la PU sont les facteurs les plus déterminants de l’intention de continuer, avec une forte influence indirecte de la qualité du système. Un modèle unifié est proposé et comparé aux modèles principaux de la littérature. La mesure de l’efficience des hôpitaux est effectuée avec un modèle économétrique dont le choix des variables a été effectué sur la base d’une revue systématique de la littérature. Trois catégories d’indicateurs d’entrée et trois catégories d’indicateurs de sorties sont utilisés. Les relations entre entrées et sorties sont analysées au travers une fonction de production (Translog) et d’un modèle paramétrique (Stochastic Frontier Analysis). Une diminution globale de l’efficience de 20 hôpitaux de court séjour de l’AP-HP sur la période 2009-2014 est observée dont les causes possibles sont discutées. La mise au point et la validation de modèles d’évaluation de l’utilisation des SIC d’une part et de mesure de l’efficience hospitalière devrait faciliter l’analyse des relations entre informatisation et efficience hospitalière, puis lorsque la même démarche aura été appliquée à la qualité des soins entre informatisation et qualité
The information and communication technologies (ICT) have been developed in all economic sectors. In the healthcare field, and particularly in hospitals with the introduction of clinical information systems (CIS), investments have dramatically increased. The rationale for these investments is the improvement of both the hospital efficiency and the quality of the care delivered to patients after the deployment of a fully integrated CIS. In the aim to validate these relationships adapted methodologies, need to be designed and implemented. This thesis concentrates on the CIS maturity and hospital efficiency relationship. Material for testing the hypothesis come from several CIS evaluations performed at HEGP and data extracted from the decision analytics tools of Assistance Publique Hôpitaux de Paris (AP-HP). After a study of the literature on the use and satisfaction evaluation of a CIS, the first part of the thesis is organized around two main studies. A 14 years longitudinal study achieved between 2004 and 2014 analyzes the evolution of use and satisfaction and their determinants within a multi professional group of users using multiple regression techniques and structural equation methods. In early post-adoption (4 years), the CIS use, the CIS quality, and the CIS perceived usefulness (PU) explain 53% of the variance in user satisfaction. In the very late post-adoption phase (> 10 years), the effect of use on user satisfaction is no more significant. In contrast, the CIS quality, the confirmation of expectations, and the PU are the best determinants of satisfaction explaining 86% of its variance. In a second study focused on continuance intention, satisfaction and PU appear to be the best determinants of continuance intention, with a strong indirect influence of the CIS quality. A unified model is proposed and compared to the main models of the literature. The measurement of hospital efficiency was achieved with an econometric approach. Selection of indicators entered in the econometric model was performed on the basis of a systematic literature review. Three categories of input indicators and three categories of output indicators are considered. The relationship between the input and output indicators are analyzed through a Stochastic Frontier Analysis model. An overall decrease of the efficiency of the 20 short-stay hospitals of the AP-HP for the 2009-2014 period is observed and its possible causes are discussed. The development and validation of CIS use-satisfaction evaluation model combined with the analysis of the hospital efficiency evolution over time could be the first phase of a more global evaluation of the complex influence of IT introduction on hospital efficiency and the quality of care delivered to patients
APA, Harvard, Vancouver, ISO, and other styles
4

Hajri, Hiba. "Personnalisation des MOOC par la réutilisation de Ressources Éducatives Libres." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC046/document.

Full text
Abstract:
La personnalisation de l’apprentissage dans les environnements informatiques pour l’apprentissage humain (EIAH) est un sujet de recherche qui est traité depuis de nombreuses années. Avec l’arrivée des cours en ligne ouverts et massifs (MOOC), la question de la personnalisation se pose de façon encore plus cruciale et de nouveaux défis se présentent aux chercheurs. En effet, le même MOOC peut être suivi par des milliers d’apprenants ayant des profils hétérogènes (connaissances, niveaux éducatif, objectifs, etc). Il devient donc nécessaire de tenir compte de cette hétérogénéité en présentant aux apprenants des contenus éducatifs adaptés à leurs profils afin qu’ils tirent parti au mieux du MOOC.D’un autre côté, de plus en plus de ressources éducatives libres (REL) sont partagées sur le web. Il est important de pouvoir réutiliser ces REL dans un contexte différent de celui pour lequel elles ont été créées. En effet, produire des REL de qualité est une activité coûteuse en temps et la rentabilisation des REL passe par leur réutilisation.Pour faciliter la découverte des REL, des schémas de métadonnées sont utilisés pour décrire les REL.Cependant, l’utilisation de ces schémas a amené à des entrepôts isolés de descriptions hétérogènes et qui ne sont pas interopérables. Afin de régler ce problème, une solution adoptée dans la littérature consiste à appliquer les principes des données ouvertes et liées (LOD) aux descriptions des REL.Dans le cadre de cette thèse, nous nous intéressons à la personnalisation des MOOC et à la réutilisation des REL.Nous proposons un système de recommandation qui fournit à un apprenant en train de suivre un MOOC des ressources externes qui sont des REL adaptées à son profil, tout en respectant les spécificités du MOOC suivi.Pour sélectionner les REL, nous nous intéressons à celles qui possèdent des descriptions insérées dans les LOD, stockées dans des entrepôts accessibles sur le web et offrant des moyens d’accès standardisés. Notre système de recommandation est implémenté dans une plateforme de MOOC, Open edX et il est évalué en utilisant une plateforme de micro-tâches
For many years now, personalization in TEL is a major subject of intensive research. With the spreading of Massive Open Online Courses (MOOC), the personalization issue becomes more acute. Actually, any MOOC can be followed by thousands of learners with different educational levels, learning styles, preferences, etc. So, it is necessary to present pedagogical contents taking into account their heterogeneous profiles so that they can maximize their benefit from following the MOOC.At the same time, the amount of Open Educational Resources (OER) available on the web is permanently growing. These OERs have to be reused in contexts different from the initial ones for which they were created.Indeed, producing quality OER is costly and requires a lot of time. Then, different metadata schemas are used to describe OER. However, the use of these schemas has led to isolated repositories of heterogeneous descriptions which are not interoperable. In order to address this problem, a solution adopted in the literature is to apply Linked Open Principles (LOD) to OER descriptions.In this thesis, we are interested in MOOC personalization and OER reuse. We design a recommendation technique which computes a set of OERs adapted to the profile of a learner attending some MOOC. The recommended OER are also adapted to the MOOC specificities. In order to find OER, we are interested in those who have metadata respecting LOD principles and stored in repositories available on the web and offering standardized means of access. Our recommender system is implemented in the MOOC platform Open edX and assessed using a micro jobs platform
APA, Harvard, Vancouver, ISO, and other styles
5

Rochoy, Michaël. "Recherche de facteurs associés à la maladie d’Alzheimer par réutilisation de base de données massives." Thesis, Lille 2, 2019. http://www.theses.fr/2019LIL2S001/document.

Full text
Abstract:
INTRODUCTION. Les troubles neurocognitifs sévères ou démences sont notamment définis par la CIM-10 et le DSM-5. Ils englobent un cadre nosographique large : démence d’Alzheimer, démence vasculaire, démence à corps de Lewy, dégénérescence lobaire fronto-temporale, etc. Chaque type de démence possède des critères diagnostiques propres et des facteurs de risque partiellement identifiés. Identifier les troubles cognitifs dans les grandes bases de données est une question complexe, qui doit tenir compte de l’évolution des connaissances. Notre premier objectif était de décrire l’évolution des codages de démences dans la base nationale du Programme de Médicalisation des Systèmes d’Information (PMSI) de court séjour, au fil de l’évolution des critères diagnostiques. Notre deuxième objectif était d’énumérer les principaux facteurs associés connus de maladie d’Alzheimer. Notre troisième objectif était de déterminer les facteurs associés à l’apparition d’une maladie d’Alzheimer dans la base nationale du PMSI de court séjour.METHODES. Pour le premier travail, nous avons utilisé les diagnostics principaux sur le site ScanSanté pour le PMSI de court séjour de 2007 à 2017. Pour le deuxième travail, nous avons effectué une synthèse des revues de littérature et méta-analyses en utilisant les moteurs de recherche PubMed et LiSSa. Pour le troisième travail, nous avons réalisé une étude analytique par fouille de données dans la base nationale du PMSI de court séjour chez les patients âgés de 55 ans ou plus en 2014 : nous avons sélectionné 137 variables explicatives potentielles en 2008 ; la variable à expliquer était la maladie ou démence d’Alzheimer en 2014.RESULTATS. Notre premier travail sur l’identification des démences met en évidence une diminution des séjours hospitaliers avec pour diagnostic principal une maladie ou démence d’Alzheimer, avec un glissement vers d’autres troubles mentaux organiques ; une stabilité des séjours hospitaliers avec pour diagnostic principal une démence vasculaire mais avec une modification des sous-diagnostics (diminution des diagnostics principaux d’infarctus multiples et augmentation de tous les autres sous-types) ; une augmentation importante des séjours hospitaliers avec pour diagnostic principal une démence ou autre trouble cognitif persistant ou tardif liés à la consommation d’alcool ; une évolution homogène sur l’ensemble du territoire français. Ces résultats sont en faveur d’un codage respectueux des évolutions de la littérature. Nos deux travaux suivants sur l’identification des populations à risque permettent d’identifier plusieurs facteurs associés à la maladie ou démence d’Alzheimer, notamment l’âge, le sexe féminin, le diabète de type 2, la dépression, la dénutrition, les troubles bipolaires, psychotiques et anxieux, le faible niveau de scolarité, l’excès d’alcool, l’épilepsie, les chutes après 75 ans et l’hypertension intracrânienne. Ces facteurs associés peuvent être des facteurs de risque, des symptômes précoces, révélateurs ou précipitants.CONCLUSION. Identifier les troubles cognitifs dans les grandes bases de données implique de bien comprendre l’évolution des codages de démence, qui semble respecter l’évolution des connaissances. L’identification des patients ayant des facteurs associés aux démences permet un repérage précoce plus ciblé, puis une bonne identification du diagnostic étiologique nécessaire à une prise en charge adaptée
INTRODUCTION. Severe neurocognitive disorders or dementias are defined by ICD-10 and DSM-5. They encompass a broad nosographic framework: Alzheimer's dementia, vascular dementia, Lewy body dementia, frontal-temporal lobar degeneration, etc. Each type of dementia has its own diagnostic criteria and partially identified risk factors. Identifying cognitive disorders in large databases is a complex issue, which must take into account changes in knowledge. Our first objective was to describe the evolution of dementia coding in the national database of the Medicalization of Information Systems Program (PMSI) for short stays, as diagnostic criteria evolved. Our second objective was to summarize the main known associated factors of Alzheimer's disease. Our third objective was to determine the factors associated with the onset of Alzheimer's disease in the national database of the short stay PMSI.METHODS. For the first work, we used the main diagnoses on the ScanSanté site for the short stay PMSI from 2007 to 2017. For the second work, we synthesized the literature reviews and meta-analyses using the PubMed and LiSSa search engines. For the third work, we conducted an analytical study by data mining in the national database of the short stay PMSI for patients aged 55 years or older in 2014: we selected 137 potential explanatory variables in 2008; the dependant variable was Alzheimer's disease or dementia in 2014.RESULTS. Our first work on the identification of dementias shows a decrease in inpatient stays with a main diagnosis of Alzheimer's disease or dementia, with a shift towards other organic mental disorders; stability of inpatint stays with a main diagnosis of vascular dementia but with a modification of under-diagnosis (decrease in main diagnoses of multiple heart attacks and increase in all other subtypes); a significant increase in inpatient stays with a main diagnosis of dementia or other persistent or late cognitive disorders related to alcohol consumption; a homogeneous evolution throughout the French territory. These results support a coding that respects the evolution of the literature. Our next two studies on the identification of at-risk populations identify several factors associated with Alzheimer's disease or dementia, including age, gender, diabetes mellitus, depression, undernutrition, bipolar, psychotic and anxiety disorders, low education, excess alcohol, epilepsy, falls after age 75 and intracranial hypertension. These associated factors may be risk factors, early, revealing or precipitating symptoms.CONCLUSION. Identifying cognitive disorders in large databases requires a good understanding of the evolution of dementia coding, which seems to respect the evolution of knowledge. The identification of patients with factors associated with dementia allows a more focused early identification and then proper identification of the etiological diagnosis necessary for appropriate management
APA, Harvard, Vancouver, ISO, and other styles
6

Ferret, Laurie. "Anticoagulants oraux, réutilisation de données hospitalières informatisées dans une démarche de soutien à la qualité des soins." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S016/document.

Full text
Abstract:
Introduction :Les anticoagulants oraux soulèvent des problématiques majeures en termes de risque hémorragique et de bon usage. L’informatisation du dossier médical offre la possibilité d’accéder à de grandes bases de données que l’on peut exploiter de manière automatisée. L’objectif de ce travail est de montrer comment la réutilisation de données peut permettre d’étudier des problématiques liées aux anticoagulants et accompagner une démarche d’assurance de la qualité des soins. MéthodesCe travail a été réalisé sur les données informatisées (97 355 séjours) d’un centre hospitalier général. Pour chaque séjour nous disposons des données diagnostiques, biologiques, médicamenteuses, administratives et des courriers de sortie. Ce travail est organisé autour de 3 axes :Axe I. L’objectif est d’évaluer la qualité de la détection des facteurs pouvant majorer l’effet anticoagulant des antivitamines K (AVK), à l’aide de règles développées au cours de du projet européen PSIP (convention de subvention n° 216130). Une revue des cas sur une année a permis de calculer la valeur prédictive positive et la sensibilité des règles. Axe II. Nous avons réalisé une étude de cohorte historique sur les données de 2007 à 2012 pour déterminer les éléments majeurs impliqués dans l’élévation du risque hémorragique sous AVK dans la réalité clinique. Les cas étaient les séjours présentant une élévation de l’INR au-delà de 5, les témoins n’en présentaient pas. Axe III. Nous avons mis la réutilisation de données au service de l’étude de la qualité des prescriptions. D’une part nous avons évalué le suivi des recommandations de traitement du risque thromboembolique dans la fibrillation atriale (FA) chez la personne âgée, d’autre part nous avons étudié les modalités de prescription des anticoagulants oraux directs (AOD).Résultats : Axe I : La valeur prédictive positive des règles de détection des facteurs favorisant l’élévation de l’INR sous AVK est de 22,4%, leur sensibilité est de 84,6%. Les règles les plus contributives sont les règles de détection d’un syndrome infectieux et de l’administration d’amiodarone. Axe II : Les facteurs majeurs d’élévation du risque hémorragique sous AVK mis en évidence par l’étude de cohorte sont le syndrome infectieux, le cancer, l’hyprotidémie et l’insuffisance hépatique. Axe III : Le taux de suivi des recommandations dans la fibrillation atriale chez le sujet âgé est de 47.8%. Seuls 45% des patients reçoivent des anticoagulants oraux, 22,9% ne reçoivent aucun traitement antithrombotique et 32,1% reçoivent des antiagrégants plaquettaires. Les AOD sont quant à eux prescrits à des posologies inadaptées chez 15 à 31,4% des patients, respectivement pour le dabigatran et le rivaroxaban. Ces erreurs sont principalement des sous-dosages en AOD dans la FA de la personne âgée (82.6%). Discussion : L’informatisation des dossiers médicaux a permis la constitution de grandes bases de données médico-administratives, qui peuvent être utilisées à des fins variées comme nous le montrons dans ce travail. Dans le premier axe nous avons montré que des systèmes d’aide à la décision à base de règles permettent de caractériser les facteurs impliqués dans les surdosages en AVK avec une bonne sensibilité mais avec une faible valeur prédictive positive. Le second axe a montré que l’on pouvait utiliser ces données à des fins exploratoires pour identifier les facteurs liés à l’élévation de l’INR chez les patients recevant des AVK en pratique réelle. Le troisième axe montre que les systèmes à base de règles peuvent aussi être utilisés pour identifier des prescriptions inappropriées à des fins d’amélioration de la qualité des soins. Dans le domaine de l’anticoagulation ce travail ouvre des perspectives innovantes en vue de l’amélioration de la qualité des soins
Introduction :Oral anticoagulants raise major issues in terms of bleeding risk and appropriate use. The computerization of medical records offers the ability to access large databases that can be explored automatically. The objective of this work is to show how routinely collected data can be reused to study issues related to anticoagulants in a supportive approach to quality of care.MethodsThis work was carried out on the electronic data (97,355 records) of a community hospital. For each inpatient stay we have diagnostic, biological, drug and administrative data, and the discharge letters. This work is organized around three axes:Axis I. The objective is to evaluate the accuracy of the detection of factors that may increase the anticoagulant effect of vitamin K antagonists (VKA), using rules developed in the PSIP european project (grant agreement N° 216130). A case review on one year enabled the calculation of the positive predictive value and sensitivity of the rules. Axis II. We conducted a cohort study on data from 2007 to 2012 to determine the major elements involved in raising the risk of bleeding related to VKA in clinical reality. Cases were the stays with an elevation of the INR beyond 5, the controls did not have.Axis III. We made data reuse serve a study of the quality of the prescriptions. On the one hand we assessed treatment of the thromboembolic risk recommendations in atrial fibrillation (AF) in the elderly, on the other hand we investigated the prescription of direct oral anticoagulants.Results : Axis I : The positive predictive value of the rules intended to detect the factors favoring the elevation of INR in case of treatment with VKA is 22.4%, the sensitivity is 84.6%. The main contributive rules are the ones intended to detect an infectious syndrome and amiodarone.Axis II : The major factor increasing the INR with VKA treatment highlighted by the cohort study are infectious syndrome, cancer, hepatic insufficiency and hypoprotidemia. The recommendations compliance rate in atrial fibrillation in the elderly is 47.8%. Only 45% of patients receive oral anticoagulants, 22.9% do not receive antithrombotic treatment at all and 32.1% received platelet aggregation inhibitors. Direct oral anticoagulants are prescribed at inadequate dosages in 15 to 31.4% of patients, respectively for dabigatran and rivaroxaban. These errors are mainly underdosages in the elderly with atrial fibrillation (82.6%).Discussion : The computerization of medical records has led to the creation of large medical databases, which can be used for various purposes as we show in this work. In the first work axis we have shown that rule-based decision support systems detect the contributing factors for VKA overdose with a good sensitivity but a low positive predictive value. The second line shows that we could use the data for exploratory purposes to identify factors associated with increased INR in patients receiving VKA in “real life practice”. The third line shows that the rule-based systems can also be used to identify inappropriate prescribing for the purpose of improving the quality of care. In the field of anticoagulation this work opens up innovative perspectives for improving the quality of care
APA, Harvard, Vancouver, ISO, and other styles
7

Fruchart, Mathilde. "Réutilisation des données de soins premiers : spécificités, standardisation et suivi de la prise en charge dans les Maisons de Santé Pluridisciplinaires." Electronic Thesis or Diss., Université de Lille (2022-....), 2024. http://www.theses.fr/2024ULILS040.

Full text
Abstract:
Contexte : La réutilisation des données de santé, au-delà de leur usage initial, permet d’améliorer la prise en charge des patients, de faciliter la recherche et d’optimiser le pilotage des établissements de santé. Pour cela, les données sont extraites des logiciels de santé, transformées et stockées dans un entrepôt de données grâce à un processus extract-transform-load (ETL). Des modèles de données communs, comme le modèle OMOP, existent pour stocker les données dans un format homogène,indépendant de la source. Les données de facturation des soins centralisées dans la base nationale (SNDS), les données hospitalières, les données des réseaux sociaux et des forums, et les données de villes ont des sources de données représentatives du parcours de soins des patients. La dernière source de données est encore peu exploitée. Objectif : L’objectif de cette thèse a été d’intégrer les spécificités de la réutilisation des soins premiers pour implémenter un entrepôt de données, tout en montrant la contribution des soins premiers au domaine de la recherche. Méthodes : Dans un premier temps, les données de soins premiers d’une maison de santé ont été extraites du logiciel de soins WEDA. Un entrepôt de données de soins premiers a été implémenté à l’aide d’un processus ETL. La transformation structurelle (harmonisation de la structure de la base de données) et sémantique (harmonisation du vocabulaire utilisé dans les données) ont été mises en place pour aligner les données avec le modèle de données commun OMOP. Pour intégrer les données des médecins généralistes de plusieurs maisons de santé, un outil de généralisation des processus ETL a été développé et testé sur quatre maisons de santé. Par la suite, un algorithme d’évaluation de la persistance à un traitement prescrit et des tableaux de bord ont été développés. Grâce à l’utilisation du modèle OMOP, ces outils sont partageables avec d’autres maisons de santé. Enfin, des études rétrospectives ont été réalisées sur la population de patients diabétiques des quatre maisons de santé. Résultats : Sur plus de 20 ans, les données des 117 005 patients de quatre maisons de santé ont été chargées dans le modèle OMOP, grâce à notre outil d’optimisation des processus ETL. Ces données couvrent les résultats de biologie des laboratoires de ville et les données relatives aux consultations de médecins généralistes. Le vocabulaire propre aux soins premiers a été aligné avec les concepts standards du modèle. Un algorithme pour évaluer la persistance à un traitement prescrit par le médecin généraliste,ainsi qu’un tableau de bord pour le suivi des indicateurs de performance (ROSP) et de l’activité du cabinet ont été développés. Basés sur les entrepôt de données des quatre maisons de santé, nous avons décrit le suivi des patients diabétiques. Ces études utilisent les données de résultats de biologie, les données de consultation et les prescriptions médicamenteuses, au format OMOP. Les scripts de ces études et les outils développés pourront être partagés.Conclusion : Les données de soins premiers représentent un potentiel pour la réutilisation des données à des fins de recherche et d’amélioration de la qualité des soins. Elles complètent les bases de données existantes (hospitalières, nationales et réseaux sociaux) en intégrant les données cliniques de ville. L’utilisation d’un modèle de données commun facilite le développement d’outils et la conduite d’études, tout en permettant leur partage. Les études pourront être répliquées dans différents centres,afin de comparer les résultats
Context : Reusing healthcare data beyond its initial use helps to improve patient care, facilitate research, and optimize the management of healthcare organizations. To achieve this, data is extracted from healthcare software, transformed and stored in a data warehouse through an extract-transform-load(ETL) process. Common data models, such as the OMOP model, exist to store data in a homogeneous,source-independent format. Data from healthcare claims centralized in the national database (SNDS), hospital, social networks and forums, and primary care are different data sources representative of the patient care pathway. The last data source has not been fully exploited. Objective : The aim of this thesis was to incorporate the specificities of primary care data reuse to implement a data warehouse while highlighting the contribution of primary care to the field of research. Methods : The first step was to extract the primary care data of a multidisciplinary health center (MHC) from the WEDA care software. A primary care data warehouse was implemented using an ETL process. Structural transformation (harmonization of the database structure) and semantic transformation (harmonization of the vocabulary used in the data) were implemented to align the data with the common OMOP data model. A process generalization tool was developed to integrate general practitioners (GP) data from multiple care structures and tested on four MHCs. Subsequently, algorithm for assessing the persistence of a prescribed treatment and dashboards were developed. Thanks to the use of the OMOP model, these tools can be shared with other MHCs. Finally, retrospective studies were conducted on the diabetic population of the four MHCs. Results : Over a period of more than 20 years, data of 117,005 patients from four MHCs wereloaded into the OMOP model using our ETL process optimization tool. These data include biological results from laboratories and GP consultation data. The vocabulary specific to primary care was aligned with the standard concepts of the model. An algorithm for assessing persistence with treatment prescribed by the GP and also a dashboard for monitoring performance indicators (ROSP) and practice activity have been developed. Based on the data warehouses of four MHCs, we described the follow-up of diabetic patients. These studies use biological results, consultation and drug prescriptions data in OMOP format. The scripts of these studies and the tools developed can be shared. Conclusion : Primary care data represent a potential for reusing data for research purposes and improving the quality of care. They complement existing databases (hospital, national and social networks) by integrating clinical data from the city. The use of a common data model facilitates the development of tools and the conduct of studies, while enabling their sharing. Studies can be replicated in different centers to compare results
APA, Harvard, Vancouver, ISO, and other styles
8

Djaffardjy, Marine. "Pipelines d'Analyse Bioinformatiques : solutions offertes par les Systèmes de Workflows, Cadre de représentation et Étude de la Réutilisation." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG059.

Full text
Abstract:
La bioinformatique est un domaine multidisciplinaire qui combine biologie, informatique et statistiques, permettant de mieux comprendre les mécanismes du vivant.Son fondement repose essentiellement sur l'analyse des données biologiques.L'émergence de nouvelles technologies, en particulier les avancées majeures dans le domaine du séquençage, a entraîné une croissance exponentielle des données, posant de nouveaux défis en matière d'analyse et de gestion des données.Pour exploiter ces données, des pipelines sont utilisés, enchaînant des outils et des processus informatiques pour conduire les analyses de manière fiable et efficace. Cependant, la crise de la reproductibilité dans la recherche scientifique souligne la nécessité de rendre les analyses reproductibles et réutilisables par des tiers.Les systèmes de workflows scientifiques ont émergé comme une solution pour rendre les pipelines plus structurés, compréhensibles et reproductibles. Les workflows décrivent des procédures en plusieurs étapes coordonnant des tâches et leurs dépendances de données. Ces systèmes aident les bioinformaticiens à concevoir et exécuter des workflows, et facilitent leur partage et réutilisation. En bioinformatique, les systèmes de workflows les plus populaires sont Galaxy, Snakemake, et Nextflow.Cependant, la réutilisation des workflows fait face à des difficultés, notamment l'hétérogénéité des systèmes de workflows, le manque d'accessibilité des workflows et le besoin de bases de données publiques de workflows. De plus, l'indexation et le développement de moteurs de recherche de workflows sont nécessaires pour faciliter la recherche et la réutilisation des workflows.Dans un premier temps, nous avons développé une méthode d'analyse des spécifications de workflows afin d'extraire plusieurs caractéristiques représentatives à partir d'un ensemble de données de workflows. Notre objectif était de proposer un cadre standard pour leur représentation, indépendamment de leur langage de spécification.Dans un second temps, nous avons sélectionné un ensemble de caractéristiques de ces workflows et les avons indexées dans une base de données relationnelle, puis dans un format structuré sémantique.Enfin, nous avons mis en place une approche pour détecter les similarités entre les workflows et les processeurs, permettant ainsi d'observer les pratiques de réutilisation adoptées par les développeurs de workflows
Bioinformatics is a multidisciplinary field that combines biology, computer science, and statistics, aiming to gain a better understanding of living mechanisms. It relies primarily on the analysis of biological data. Major technological improvements, especially sequencing technologies, gave rise to an exponential increase of data, laying out new challenges in data analysis and management.In order to analyze this data, bioinformaticians use pipelines, which chain computational tools and processes. However, the reproducibility crisis in scientific research highlights the necessity of making analyses reproducible and reusable by others.Scientific workflow systems have emerged as a solution to make pipelines more structured, understandable, and reproducible. Workflows describe procedures with multiple coordinated steps involving tasks and their data dependencies. These systems assist bioinformaticians in designing and executing workflows, facilitating their sharing and reuse. In bioinformatics, the most popular workflow systems are Galaxy, Snakemake, and Nextflow.However, the reuse of workflows faces challenges, including the heterogeneity of workflow systems, limited accessibility to workflows, and the need for public workflow databases. Additionally, indexing and developing workflow search engines are necessary to facilitate workflow discovery and reuse.In this study, we developed an analysis method for workflow specifications to extract several representative characteristics from a dataset of workflows. The goal was to propose a standardized representation framework independent of the specification language. Additionally, we selected a set of workflow characteristics and indexed them into a relational database and a structured semantic format. Finally, we established an approach to detect similarity between workflows and between processors, enabling us to observe the reuse practices adopted by workflow developers
APA, Harvard, Vancouver, ISO, and other styles
9

Bouzillé, Guillaume. "Enjeux et place des data sciences dans le champ de la réutilisation secondaire des données massives cliniques : une approche basée sur des cas d’usage." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B023/document.

Full text
Abstract:
La dématérialisation des données de santé a permis depuis plusieurs années de constituer un véritable gisement de données provenant de tous les domaines de la santé. Ces données ont pour caractéristiques d’être très hétérogènes et d’être produites à différentes échelles et dans différents domaines. Leur réutilisation dans le cadre de la recherche clinique, de la santé publique ou encore de la prise en charge des patients implique de développer des approches adaptées reposant sur les méthodes issues de la science des données. L’objectif de cette thèse est d’évaluer au travers de trois cas d’usage, quels sont les enjeux actuels ainsi que la place des data sciences pour l’exploitation des données massives en santé. La démarche utilisée pour répondre à cet objectif consiste dans une première partie à exposer les caractéristiques des données massives en santé et les aspects techniques liés à leur réutilisation. La seconde partie expose les aspects organisationnels permettant l’exploitation et le partage des données massives en santé. La troisième partie décrit les grandes approches méthodologiques en science des données appliquées actuellement au domaine de la santé. Enfin, la quatrième partie illustre au travers de trois exemples l’apport de ces méthodes dans les champs suivant : la surveillance syndromique, la pharmacovigilance et la recherche clinique. Nous discutons enfin les limites et enjeux de la science des données dans le cadre de la réutilisation des données massives en santé
The dematerialization of health data, which started several years ago, now generates na huge amount of data produced by all actors of health. These data have the characteristics of being very heterogeneous and of being produced at different scales and in different domains. Their reuse in the context of clinical research, public health or patient care involves developing appropriate approaches based on methods from data science. The aim of this thesis is to evaluate, through three use cases, what are the current issues as well as the place of data sciences regarding the reuse of massive health data. To meet this objective, the first section exposes the characteristics of health big data and the technical aspects related to their reuse. The second section presents the organizational aspects for the exploitation and sharing of health big data. The third section describes the main methodological approaches in data sciences currently applied in the field of health. Finally, the fourth section illustrates, through three use cases, the contribution of these methods in the following fields: syndromic surveillance, pharmacovigilance and clinical research. Finally, we discuss the limits and challenges of data science in the context of health big data
APA, Harvard, Vancouver, ISO, and other styles
10

Eyssautier-Bavay, Carole. "Modèles, langage et outils pour la réutilisation de profils d'apprenants." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00327198.

Full text
Abstract:
Cette thèse en informatique se place dans le domaine des Environnements Informatiques pour l'Apprentissage Humain. Durant une activité d'apprentissage, de nombreuses informations peuvent être recueillies et interprétées pour constituer un profil, en termes de connaissances, compétences, conceptions ou comportements d'un apprenant ou d'un groupe d'apprenants. Ces profils peuvent différer de part leur intention pédagogique, leur contenu, leur structuration, leur présentation. Par ailleurs, les acteurs de la situation d'apprentissage concernés par ces profils sont divers.

Il n'existe pas à l'heure actuelle de solution technique permettant de réutiliser ces profils hétérogènes. Cette thèse cherche donc à proposer des modèles et des outils permettant la réutilisation pour les différents acteurs de profils d'apprenants créés par d'autres.

Dans nos travaux, nous proposons le modèle de processus de gestion de profils REPro (Reuse of External Profiles). Pour permettre la réutilisation de profils hétérogènes, nous proposons de les réécrire selon un formalisme commun qui prend la forme d'un langage de modélisation de profils, le langage PMDL (Profiles MoDeling Language). Nous définissons ensuite un ensemble d'opérateurs permettant la transformation des profils ainsi harmonisés, ou de leur structure, tels que l'ajout d'éléments dans le profil, ou la création d'un profil de groupe à partir de profils individuels. Ces propositions ont été mises en œuvre au sein de l'environnement EPROFILEA du projet PERLEA (Profils d'Élèves Réutilisés pour L'Enseignant et l'Apprenant), avant d'être mises à l'essai auprès d'enseignants en laboratoire.
APA, Harvard, Vancouver, ISO, and other styles
11

Ficheur, Grégoire. "Réutilisation de données hospitalières pour la recherche d'effets indésirables liés à la prise d'un médicament ou à la pose d'un dispositif médical implantable." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S015/document.

Full text
Abstract:
Introduction : les effets indésirables associés à un traitement médicamenteux ou à la pose d'un dispositif médical implantable doivent être recherchés systématiquement après le début de leur commercialisation. Les études réalisées pendant cette phase sont des études observationnelles qui peuvent s'envisager à partir des bases de données hospitalières. L'objectif de ce travail est d'étudier l'intérêt de la ré-utilisation de données hospitalières pour la mise en évidence de tels effets indésirables.Matériel et méthodes : deux bases de données hospitalières sont ré-utilisées pour les années 2007 à 2013 : une première contenant 171 000 000 de séjours hospitaliers incluant les codes diagnostiques, les codes d'actes et des données démographiques, ces données étant chaînées selon un identifiant unique de patient ; une seconde issue d'un centre hospitalier contenant les mêmes types d'informations pour 80 000 séjours ainsi que les résultats de biologie médicale, les administrations médicamenteuses et les courriers hospitaliers pour chacun des séjours. Quatre études sont conduites sur ces données afin d'identifier d'une part des évènements indésirables médicamenteux et d'autre part des évènements indésirables faisant suite à la pose d'un dispositif médical implantable.Résultats : la première étude démontre l'aptitude d'un jeu de règles de détection à identifier automatiquement les effets indésirables à type d'hyperkaliémie. Une deuxième étude décrit la variation d'un paramètre de biologie médicale associée à la présence d'un motif séquentiel fréquent composé d'administrations de médicaments et de résultats de biologie médicale. Un troisième travail a permis la construction d'un outil web permettant d'explorer à la volée les motifs de réhospitalisation des patients ayant eu une pose de dispositif médical implantable. Une quatrième et dernière étude a permis l'estimation du risque thrombotique et hémorragique faisant suite à la pose d'une prothèse totale de hanche.Conclusion : la ré-utilisation de données hospitalières dans une perspective pharmacoépidémiologique permet l'identification d'effets indésirables associés à une administration de médicament ou à la pose d'un dispositif médical implantable. L'intérêt de ces données réside dans la puissance statistique qu'elles apportent ainsi que dans la multiplicité des types de recherches d'association qu'elles permettent
Introduction:The adverse events associated with drug administration or placement of an implantable medical device should be sought systematically after the beginning of the commercialisation. Studies conducted in this phase are observational studies that can be performed from hospital databases. The objective of this work is to study the interest of the re-use of hospital data for the identification of such an adverse event.Materials and methods:Two hospital databases have been re-used between the years 2007 to 2013: the first contains 171 million inpatient stays including diagnostic codes, procedures and demographic data. This data is linked with a single patient identifier; the second database contains the same kinds of information for 80,000 stays and also the laboratory results and drug administrations for each inpatient stay. Four studies were conducted on these pieces of data to identify adverse drug events and adverse events following the placement of an implantable medical device.Results:The first study demonstrates the ability of a set of detection of rules to automatically identify adverse drug events with hyperkalaemia. The second study describes the variation of a laboratory results associated with the presence of a frequent sequential pattern composed of drug administrations and laboratory results. The third piece of work enables the user to build a web tool exploring on the fly the reasons for rehospitalisation of patients with an implantable medical device. The fourth and final study estimates the thrombotic and bleeding risks following a total hip replacement.Conclusion:The re-use of hospital data in a pharmacoepidemiological perspective allows the identification of adverse events associated with drug administration or placement of an implantable medical device. The value of this data is the amount statistical power they bring as well as the types of associations they allow to analyse
APA, Harvard, Vancouver, ISO, and other styles
12

Saurel, Claire. "Contribution aux systèmes experts : développement d'un cas concret et étude du problème de la génération d'explications négatives." Toulouse, ENSAE, 1987. http://www.theses.fr/1987ESAE0008.

Full text
Abstract:
La première partie concerne le problème de l'aide à la réutilisation de logiciels existants. Une étude de système expert est réalisée, suivie de la conception d'une maquette appliquée au domaine du calcul scientifique. Dans le cadre de l'experimentation de cette maquette, le problème des explications négatives a été soulevé. Une méthode de génération d'explications négatives structurées par niveaux de détails, basée sur une représentation de la résolution par un arbre et-ou a été proposée.
APA, Harvard, Vancouver, ISO, and other styles
13

Lebis, Alexis. "Capitaliser les processus d'analyse de traces d'apprentissage : modélisation ontologique & assistance à la réutilisation." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS523.

Full text
Abstract:
Cette thèse en informatique porte sur la problématique de la capitalisation des processus d’analyse de traces d’apprentissage au sein de la communauté des Learning Analytics (LA). Il s’agit de permettre de partager, adapter et réutiliser ces processus d’analyse de traces. Actuellement, cette capitalisation est limitée par deux facteurs importants : les processus d’analyse sont dépendants des outils d’analyse qui les mettent en œuvre - leur contexte technique - et du contexte pédagogique pour lequel ils sont menés. Cela empêche de les partager, mais aussi de les ré-exploiter simplement en dehors de leurs contextes initiaux, quand bien même les nouveaux contextes seraient similaires. L’objectif de cette thèse est de fournir des modélisations et des méthodes permettant la capitalisation des processus d’analyse de traces d’apprentissage, ainsi que d’assister les différents acteurs de l’analyse, notamment durant la phase de réutilisation. Pour cela, nous répondons aux trois verrous scientifiques suivant : comment partager et combiner des processus d’analyse mis en œuvre dans différents outils d’analyse ? ; comment permettre de ré-exploiter un processus d’analyse existant pour répondre à un autre besoin d’analyse ? ; comment assister les différents acteurs lors de l’élaboration et de l’exploitation de processus d’analyse ? Notre première contribution, issue d’une synthèse de l’état de l’art, est la formalisation d’un cycle d'élaboration et d'exploitation des processus d'analyse, afin d'en définir les différentes étapes, les différents acteurs et leurs différents rôles. Cette formalisation est accompagnée d’une définition de la capitalisation et de ses propriétés. Notre deuxième contribution répond au premier verrou lié à la dépendance technique des processus d’analyse actuels, et à leur partage. Nous proposons un méta-modèle qui permet de décrire les processus d’analyse indépendamment des outils d’analyse. Ce méta-modèle formalise la description des opérations utilisées dans les processus d'analyse, des processus eux-mêmes et des traces utilisées, afin de s’affranchir des contraintes techniques occasionnées par ces outils. Ce formalisme commun aux processus d’analyse permet aussi d’envisager leur partage. Il a été mis en œuvre et évalué dans un de nos prototypes. Notre troisième contribution traite le deuxième verrou sur la ré-exploitation des processus d’analyse. Nous proposons un framework ontologique pour les processus d'analyse, qui permet d'introduire de manière structurée des éléments sémantiques dans la description des processus d'analyse. Cette approche narrative enrichit ainsi le formalisme précédent et permet de satisfaire les propriétés de compréhension, d’adaptation et de réutilisation nécessaires à la capitalisation. Cette approche ontologique a été mise en œuvre et évaluée dans un autre de nos prototypes. Enfin, notre dernière contribution répond au dernier verrou identifié et concerne de nouvelles pistes d’assistances aux acteurs, notamment une nouvelle méthode de recherche des processus d’analyse, s’appuyant sur nos propositions précédentes. Nous exploitons le cadre ontologique de l’approche narrative pour définir des règles d’inférence et des heuristiques permettant de raisonner sur les processus d’analyse dans leur ensemble (e.g. étapes, configurations) lors de la recherche. Nous utilisons également le réseau sémantique sous-jacent à cette modélisation ontologique pour renforcer l’assistance aux acteurs en leur fournissant des outils d’inspection et de compréhension lors de la recherche. Cette assistance a été mise en œuvre dans un de nos prototypes, et évaluée empiriquement
This thesis in computer science focuses on the problem of capitalizing analysis processes of elearning traces within the Learning Analytics (LA) community. The aim is to allow these analysis processes to be shared, adapted and reused. Currently, this capitalization is limited by two important factors: the analysis processes are dependent on the analysis tools that implement them - their technical context - and the pedagogical context for which they are conducted. This prevents them from being shared, but also from being simply reused outside their original contexts, even if the new contexts are similar. The objective of this thesis is to provide models and methods for the capitalisation of analysis processes of elearning traces, as well as to assist the various actors involved in the analysis, particularly during the reuse phase. To do this, we answer the following three scientific questions: how to share and combine analysis processes implemented in different analysis tools; how to reuse an existing analysis process to meet another analysis need; how to assist the different actors in the development and exploitation of analysis processes; and how to support them in the development and exploitation of analysis processes. Our first contribution, resulting from a synthesis of the state of the art, is the formalization of a cycle of elaboration and exploitation of the analysis processes, in order to define the different stages, the different actors and their different roles. This formalization is accompanied by a definition of capitalization and its properties. Our second contribution responds to the first barrier related to the technical dependence of current analysis processes and their sharing. We propose a meta-model that allows to describe the analysis processes independently of the analysis tools. This meta-model formalizes the description of the operations used in the analysis processes, the processes themselves and the traces used, in order to avoid the technical constraints caused by these tools. This formalism, common to the analysis processes, also makes it possible to consider their sharing. It has been implemented and evaluated in one of our prototypes. Our third contribution deals with the second lock on the reuse of analysis processes. We propose an ontological framework for analysis processes, which allows semantic elements to be directly introduced, in a structured way, during the description of analysis processes. This narrative approach thus enriches the previous formalism and makes it possible to satisfy the properties of understanding, adaptation and reuse necessary for capitalisation. This ontological approach was implemented and evaluated in another of our prototypes. Finally, our last contribution responds to the last lock identified and concerns new assistances to actors, in particular a new method of researching analysis processes, based on our previous proposals. We use the ontological framework of the narrative approach to define inference rules and heuristics to reason about the analysis processes as a whole (e.g. steps, configurations) during the research. We also use the semantic network underlying this ontological modeling to strengthen assistance to actors by providing them with inspection and understanding tools during the research. This assistance was implemented in one of our prototypes, and empirically evaluated
APA, Harvard, Vancouver, ISO, and other styles
14

Poirier, Canelle. "Modèles statistiques pour les systèmes d'aide à la décision basés sur la réutilisation des données massives en santé : application à la surveillance syndromique en santé publique." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B019.

Full text
Abstract:
Depuis plusieurs années, la notion de Big Data s'est largement développée. Afin d'analyser et explorer toutes ces données, il a été nécessaire de concevoir de nouvelles méthodes et de nouvelles technologies. Aujourd'hui, le Big Data existe également dans le domaine de la santé. Les hôpitaux en particulier, participent à la production de données grâce à l'adoption du dossier patient électronique. L'objectif de cette thèse a été de développer des méthodes statistiques réutilisant ces données afin de participer à la surveillance syndromique et d'apporter une aide à la décision. Cette étude comporte 4 axes majeurs. Tout d'abord, nous avons montré que les données massives hospitalières étaient très corrélées aux signaux des réseaux de surveillance traditionnels. Dans un second temps, nous avons établi que les données hospitalières permettaient d'obtenir des estimations en temps réel plus précises que les données du web, et que les modèles SVM et Elastic Net avaient des performances comparables. Puis, nous avons appliqué des méthodes développées aux Etats-Unis réutilisant les données hospitalières, les données du web (Google et Twitter) et les données climatiques afin de prévoir à 2 semaines les taux d'incidence grippaux de toutes les régions françaises. Enfin, les méthodes développées ont été appliquées à la prévision à 3 semaines des cas de gastro-entérite au niveau national, régional, et hospitalier
Over the past few years, the Big Data concept has been widely developed. In order to analyse and explore all this data, it was necessary to develop new methods and technologies. Today, Big Data also exists in the health sector. Hospitals in particular are involved in data production through the adoption of electronic health records. The objective of this thesis was to develop statistical methods reusing these data in order to participate in syndromic surveillance and to provide decision-making support. This study has 4 major axes. First, we showed that hospital Big Data were highly correlated with signals from traditional surveillance networks. Secondly, we showed that hospital data allowed to obtain more accurate estimates in real time than web data, and SVM and Elastic Net models had similar performances. Then, we applied methods developed in United States reusing hospital data, web data (Google and Twitter) and climatic data to predict influenza incidence rates for all French regions up to 2 weeks. Finally, methods developed were applied to the 3-week forecast for cases of gastroenteritis at the national, regional and hospital levels
APA, Harvard, Vancouver, ISO, and other styles
15

Devogele, Thomas. "Processus d'intégration et d'appariement de Bases de Données Géographiques; Application à une base de donnéesroutières multi-échelles." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 1997. http://tel.archives-ouvertes.fr/tel-00085113.

Full text
Abstract:
Les phénomènes du monde réel sont actuellement représentés dans les Bases de Données Géographiques (BDG) sous différentes formes (suivant les modèles géographiques, suivant les points de vue utilisateur et/ou suivant les systèmes). La réutilisation de telles BDG nécessite dès lors un processus d'intégration pour éliminer les parties redondantes et regrouper les parties complémentaires. Ce processus d'intégration est nécessaire étant donné le coût d'acquisition des données géographiques (de cette manière des saisies d'information sont évitées) et permet de fédérer l'information provenant de différentes sources. L'intégration est donc au cœur du problème d'interopérabilité entre BDG.
A l'issue de celle-ci, plusieurs représentations de phénomènes du monde réel sont disponibles selon des points de vue différents et des échelles distinctes. Ces représentations multiples sont nécessaires pour des applications très diverses : cartographie électronique multi-échelle, propagation des mises à jour, aide à la navigation.
L'objectif de cette thèse consiste donc à définir un processus d'intégration de BDG sur un seul site, le processus étant limité aux données en mode vecteur à deux dimensions. Il propose l'extension d'un processus d'intégration classique à trois phases [Spaccapietra et al. 92] (pré-intégration, déclaration des correspondances, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre BDG et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en œuvre sur les trois principales bases de données de l'IGN (BD TOPO®, BD CARTO® et GEOROUTE®) pour le thème routier dans la région de Lagny (environ 900 km de tronçons routiers).
Etant donnée la complexité des phénomènes géographiques, plusieurs interprétations et donc plusieurs modélisations des phénomènes peuvent être définies. La taxonomie des conflits d'intégration de BDG effectue une structuration de ces différences : conflits de définition de classe (conflits de classification, conflits de fragmentation, conflits de spécification), conflits d'hétérogénéité, conflit de description,...Six catégories de conflits ont été traitées dans le processus d'intégration.
Certains conflits sont pris en compte dans la phase de pré-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. De plus, la phase d'intégration doit suivre une stratégie. Cette stratégie détermine le choix des opérations et fixe l'objectif de l'intégration. Au vu de nos bases d'expérimentations, deux stratégies d'intégration (et leurs opérations d'intégration associées) sont présentées.
Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel et permet le regroupement d'informations. Cette étape est précieuse car elle enrichit les BDG d'opérations inter-représentations, opérations nécessaires aux applications multi-représentations.
Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90 %. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données.
Cette thèse apporte donc un cadre général et détaillé pour les intégrations de BDG et contribue ainsi à l'essor d'applications multi-représentations et de l'interopérabilité entre les BDG en adaptant ces processus à des BDG réparties sur un réseau.
APA, Harvard, Vancouver, ISO, and other styles
16

Cecchinel, Cyril. "DEPOSIT : une approche pour exprimer et déployer des politiques de collecte sur des infrastructures de capteurs hétérogènes et partagées." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4094/document.

Full text
Abstract:
Les réseaux de capteurs sont utilisés dans l’IoT pour collecter des données. Cependant, une expertise envers les réseaux de capteurs est requise pour interagir avec ces infrastructures. Pour un ingénieur logiciel, cibler de tels systèmes est difficile. Les spécifications des plateformes composant l'infrastructure de capteurs les obligent à travailler à un bas niveau d'abstraction et à utiliser des plateformes hétérogènes. Cette fastidieuse activité peut conduire à un code exploitant de manière non optimisée l’infrastructure. En étant spécifiques à une infrastructure, ces applications ne peuvent également pas être réutilisées facilement vers d’autres infrastructures. De plus, le déploiement de ces applications est hors du champ de compétences d’un ingénieur logiciel car il doit identifier la ou les plateforme(s) requise(s) pour supporter l’application. Enfin, l’architecture peut ne pas être conçue pour supporter l’exécution simultanée d’application, engendrant des déploiements redondants lorsqu’une nouvelle application est identifiée. Dans cette thèse, nous présentons une approche qui supporte (i) la définition de politiques de collecte de données à haut niveau d’abstraction et réutilisables, (ii) leur déploiement sur une infrastructure hétérogène dirigée par des modèles apportés par des experts réseau et (iii) la composition automatique de politiques sur des infrastructures hétérogènes. De ces contributions, un ingénieur peut dès lors manipuler un réseau de capteurs sans en connaitre les détails, en réutilisant des abstractions architecturales disponibles lors de l'expression des politiques, des politiques qui pourront également coexister au sein d'un même réseau
Sensing infrastructures are classically used in the IoT to collect data. However, a deep knowledge of sensing infrastructures is needed to properly interact with the deployed systems. For software engineers, targeting these systems is tedious. First, the specifies of the platforms composing the infrastructure compel them to work with little abstractions and heterogeneous devices. This can lead to code that badly exploit the network infrastructure. Moreover, by being infrastructure specific, these applications cannot be easily reused across different systems. Secondly, the deployment of an application is outside the domain expertise of a software engineer as she needs to identify the required platform(s) to support her application. Lastly, the sensing infrastructure might not be designed to support the concurrent execution of various applications leading to redundant deployments when a new application is contemplated. In this thesis we present an approach that supports (i) the definition of data collection policies at high level of abstraction with a focus on their reuse, (ii) their deployment over a heterogeneous infrastructure driven by models designed by a network export and (iii) the automatic composition of the policy on top of the heterogeneous sensing infrastructures. Based on these contributions, a software engineer can exploit sensor networks without knowing the associated details, while reusing architectural abstractions available off-the-shelf in their policy. The network will also be shared automatically between the policies
APA, Harvard, Vancouver, ISO, and other styles
17

Bentounsi, Mohamed el Mehdi. "Les processus métiers en tant que services - BPaaS : sécurisation des données et des services." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCB156/document.

Full text
Abstract:
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE
Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit
APA, Harvard, Vancouver, ISO, and other styles
18

Bentounsi, Mohamed el Mehdi. "Les processus métiers en tant que services - BPaaS : sécurisation des données et des services." Electronic Thesis or Diss., Sorbonne Paris Cité, 2015. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=1698&f=9066.

Full text
Abstract:
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE
Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit
APA, Harvard, Vancouver, ISO, and other styles
19

Butoianu, Valentin. "Share and reuse of context metadata resulting from interactions between users and heterogeneous web-based learning environments." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2004/.

Full text
Abstract:
L'intérêt pour l'observation, l'instrumentation et l'évaluation des systèmes éducatifs en ligne est devenu de plus en plus important ces dernières années au sein de la communauté des Environnements Informatique pour l'Apprentissage Humain (EIAH). La conception et le développement d'environnements d'apprentissage en ligne adaptatifs (AdWLE - Adaptive Web-based Learning Environments) représentent une préoccupation majeure aujourd'hui, et visent divers objectifs tels que l'aide au processus de réingénierie, la compréhension du comportement des utilisateurs, ou le soutient à la création de systèmes tutoriels intelligents. Ces systèmes gèrent leur processus d'adaptation sur la base d'informations détaillées reflétant le contexte dans lequel les étudiants évoluent pendant l'apprentissage : les ressour-ces consultées, les clics de souris, les messages postés dans les logiciels de messagerie instantanée ou les forums de discussion, les réponses aux questionnaires, etc. Les travaux présentés dans ce document sont destinés à surmonter certaines lacunes des systèmes actuels en fournissant un cadre dédié à la collecte, au partage et à la réutilisation du contexte représenté selon deux niveaux d'abstraction : le contexte brut (résultant des interactions directes entre utilisateurs et applications) et le contexte inféré (calculé à partir des données du contexte brut). Ce cadre de travail qui respecte la vie privée des usagers est fondé sur un standard ouvert dédié à la gestion des systèmes, réseaux et applications. Le contexte spécifique aux outils hétérogènes constituant les EIAHs est représenté par une structure unifiée et extensible, et stocké dans un référentiel central. Pour faciliter l'accès à ce référentiel, nous avons introduit une couche intermédiaire composée d'un ensemble d'outils. Certains d'entre eux permettent aux utilisateurs et applications de définir, collecter, partager et rechercher les données de contexte qui les intéressent, tandis que d'autres sont dédiés à la conception, au calcul et à la délivrance des données de contexte inférées. Pour valider notre approche, une mise en œuvre du cadre de travail proposé intègre des données contextuelles issues de trois systèmes différents : deux plates-formes d'apprentissage Moodle (celle de l'Université Paul Sabatier de Toulouse, et une autre déployée dans le cadre du projet CONTINT financé par l'Agence Nationale de la Recherche) et une instanciation locale du moteur de recherche de la fondation Ariadne. A partir des contextes collectés, des indicateurs pertinents ont été calculés pour chacun de ces environnements. En outre, deux applications qui exploitent cet ensemble de données ont été développées : un système de recommandation personnalisé d'objets pédagogiques ainsi qu'une application de visualisation fondée sur les technologies tactiles pour faciliter la navigation au sein de ces données de contexte
An interest for the observation, instrumentation, and evaluation of online educational systems has become more and more important within the Technology Enhanced Learning community in the last few years. Conception and development of Adaptive Web-based Learning Environments (AdWLE) in order to facilitate the process of re-engineering, to help understand users' behavior, or to support the creation of Intelligent Tutoring Systems represent a major concern today. These systems handle their adaptation process on the basis of detailed information reflecting the context in which students evolve while learning: consulted resources, mouse clicks, chat messages, forum discussions, visited URLs, quizzes selections, and so on. The works presented in this document are intended to overcome some issues of the actual systems by providing a privacy-enabled framework dedicated to the collect, share and reuse of context represented at two abstraction levels: raw context (resulting from direct interactions between users and applications) and inferred context (calculated on the basis of raw context). The framework is based on an open standard dedicated to system, network and application management, where the context specific to heterogeneous tools is represented as a unified and extensible structure and stored into a central repository. To facilitate access to this context repository, we introduced a middleware layer composed of a set of tools. Some of them allow users and applications to define, collect, share and search for the context data they are interested in, while others are dedicated to the design, calculation and delivery of inferred context. To validate our approach, an implementation of the suggested framework manages context data provided by three systems: two Moodle servers (one running at the Paul Sabatier University of Toulouse, and the other one hosting the CONTINT project funded by the French National Research Agency) and a local instantiation of the Ariadne Finder. Based on the collected context, relevant indicators have been calculated for each one of these environments. Furthermore, two applications which reuse the encapsulated context have been developed on top of the framework: a personalized system for recommending learning objects to students, and a visualization application which uses multi-touch technologies to facilitate the navigation among collected context entities
APA, Harvard, Vancouver, ISO, and other styles
20

Ngo, Thanh Nghi. "Une approche PLM pour supporter les collaborations et le partage des connaissances dans le secteur médical : Application aux processus de soins par implantation de prothèses." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0013/document.

Full text
Abstract:
Le secteur médical est un domaine dynamique en constante évolution, nécessitant des améliorations continues de ses processus métier et une assistance intelligente aux acteurs impliqués. Ce travail de thèse se focalise sur le processus de soins nécessitant l’implantation d’une prothèse. La particularité de ce processus est qu’il met en interaction deux cycles de vie appartenant respectivement au domaine médical et celui de l’ingénierie. Ceci implique plusieurs actions de collaboration entre des acteurs métier très variés. Cependant, des problèmes de communication et de partage de connaissances peuvent exister en raison de l’hétérogénéité de la sémantique utilisée et des pratiques métiers propres à chaque domaine.Dans ce contexte, ce travail de thèse s’intéresse aux apports des approches d’ingénierie des connaissances et de gestion du cycle de vie du produit pour répondre aux problématiques sous-jacentes au processus de soins médicaux nécessitant l’implantation d’une prothèse. Pour se faire, un cadre conceptuel est proposé pour analyser les connexions entre les cycles de vie de maladie (domaine Médical)et de la prothèse (domaine d’ingénierie). Sur la base de cette analyse, un modèle sémantique sous forme d’une ontologie pour le domaine médical est définit dans le cadre de la construction d’une approche PLM à base de connaissances. L’application de cette proposition est démontrée à travers l’implémentation de quelques fonctions utiles dans un outil PLM du marché nommé AUDROS
Medical sector is a dynamic domain that requires continuous improvement of its business processes and assistance to the actors involved. This research focuses on the medical treatment process requiring prosthesis implantation. The specificity of such a process is that it makes in connection two lifecyclesbelonging to medical and engineering domains respectively. This implies several collaborative actions between stake holders from heterogeneous disciplines. However, several problems of communication and knowledge sharing may occur because of the variety of semantic used and the specific business practices in each domain. In this context, this PhD work is interested in the potential of knowledge engineering and product lifecycle management approaches to cope with the above problems. To do so, a conceptual framework is proposed for the analysis of links between the disease (medicaldomain) and the prosthesis (engineering domain) lifecycles. Based on this analysis, a semantic ontology model for medical domain is defined as part of a global knowledge-based PLM approach proposition. The application of the proposition is demonstrated through an implementation of useful function in the AUDROS PLM software
APA, Harvard, Vancouver, ISO, and other styles
21

Mefteh, Wafa. "Approche ontologique pour la modélisation et le raisonnement sur les trajectoires : prise en compte des aspects thématiques, temporels et spatiaux." Thesis, La Rochelle, 2013. http://www.theses.fr/2013LAROS405/document.

Full text
Abstract:
L’évolution des systèmes de capture des données concernant les objets mobiles a donné naissance à de nouvelles générations d’applications dans différents domaines. Les données capturées, communément appelées « trajectoires », sont au cœur des applications qui analysent et supervisent le trafic routier, maritime et aérien ou également celles qui optimisent le transport public. Elles sont aussi exploitées dans les domaines du jeu vidéo, du cinéma, du sport et dans le domaine de la biologie animale pour l’étude des comportements, par les systèmes de capture des mouvements. Aujourd’hui, les données produites par ces capteurs sont des données brutes à caractère spatio-temporel qui cachent des informations sémantiquement riches et enrichissantes pour un expert. L’objectif de cette thèse est d’associer automatiquement aux données spatio-temporelles des descriptions ou des concepts liés au comportement des objets mobiles, interprétables par les humains, mais surtout par les machines. Partant de ce constat, nous proposons un processus partant de l’expérience des objets mobiles de monde réel, notamment le bateau et l’avion, vers un modèle ontologique générique pour la trajectoire. Nous présentons quelques requêtes qui intéressent les experts du domaine et qui montrent l’impossibilité d’exploiter les trajectoires dans leurs états bruts. En effet, l’analyse de ces requêtes fait ressortir trois types de composantes sémantiques : thématique, spatiale et temporelle. Ces composantes doivent être rattachées aux données des trajectoires ce qui conduit à introduire un processus d’annotation qui transforme les trajectoires brutes en trajectoires sémantiques. Pour exploiter les trajectoires sémantiques, on construit une ontologie de haut niveau pour le domaine de la trajectoire qui modélise les données brutes et leurs annotations. Vu le besoin d’un raisonnement complet avec des concepts et des opérateurs spatiaux et temporaux, nous proposons la solution de réutilisation des ontologies de temps et d’espace. Dans cette thèse, nous présentons aussi notre travail issu d’une collaboration avec une équipe de recherche qui s’intéresse à l’analyse et à la compréhension des comportements des mammifères marins dans leur milieu naturel. Nous détaillons le processus utilisé dans les deux premiers domaines, qui part des données brutes représentant les déplacements des phoques jusqu’au modèle ontologique de trajectoire des phoques. Nous accordons une attention particulière à l’apport de l’ontologie de haut niveau définissant un cadre contextuel pour l’ontologie du domaine d’application. Enfin, cette thèse présente la difficulté de mise en œuvre sur des données de taille réelle (des centaines de milliers d’individus) lors du raisonnement à travers les mécanismes d’inférence utilisant des règles métiers
The evolution of systems capture data on moving objects has given birth to new generations of applications in various fields. Captured data, commonly called ”trajectories”, are at the heart of applications that analyze and monitor road, maritime and air traffic or also those that optimize public transport. They are also used in the video game, movies, sports and field biology to study animal behavior, by motion capture systems. Today, the data produced by these sensors are raw spatio-temporal characters hiding semantically rich and meaningful informations to an expert data. So, the objective of this thesis is to automatically associate the spatio-temporal data descriptions or concepts related to the behavior of moving objects, interpreted by humans, but also by machines. Based on this observation, we propose a process based on the experience of real-world moving objects, including vessel and plane, to an ontological model for the generic path. We present some applications of interest to experts in the field and show the inability to use the paths in their raw state. Indeed, the analysis of these queries identified three types of semantic components : thematic, spatial and temporal. These components must be attached to data paths leading to enter an annotation that transforms raw semantic paths process trajectories. To exploit the semantic trajectories, we construct a high-level ontology for the domain of the path which models the raw data and their annotations. Given the need of complete reasoning with concepts and spatial and temporal operators, we propose the solution for reuse of ontologies time space. In this thesis, we also present our results from a collaboration with a research team that focuses on the analysis and understanding of the behavior of marine mammals in their natural environment. We describe the process used in the first two areas, which share raw data representing the movement of seals to ontological trajectory model seals. We pay particular attention to the contribution of the upper ontology defined in a contextual framework for ontology application. Finally, this thesis presents the difficulty of implementation on real data size (hundreds of thousands) when reasoning through inference mechanisms using business rules
APA, Harvard, Vancouver, ISO, and other styles
22

Assouroko, Ibrahim. "Gestion de données et dynamiques des connaissances en ingénierie numérique : contribution à l'intégration de l'ingénierie des exigences, de la conception mécanique et de la simulation numérique." Compiègne, 2012. http://www.theses.fr/2012COMP2030.

Full text
Abstract:
Les profonds changements observés, ces vingt dernières années dans le domaine du développement de produits, ont entraîné un changement méthodologique propre au domaine de la conception, et ont bénéficié d'un développement considérable des Technologies de l'Information et de la Communication (à l'instar des systèmes PLM pour la gestion de cycle de vie de produits), et des approches d'ingénierie collaborative pour l'amélioration du processus de développement de produits (PDP). Dans le contexte actuel, les solutions PLM du marché présentent de fortes hétérogénéités et restent centrés sur des technologies et formats propriétaires, n'offre pas suffisamment de capacités de communication et de partage entre logiciels contribuant au PDP. Cette thèse s'inscrit dans le cadre du PDP, et contribue à l'amélioration de la gestion intégrée de données (hétérogènes) de conception mécanique et de simulation numérique dans un contexte PLM. La contribution apportée se focalise sur la mise en œuvre d'une approche de dynamique des connaissances d'ingénierie basée sur une gestion des relations sémantiques du produit et s'articulant autour des points suivants : (1) une approche de structuration de données, portée par des entités de type semi-structuré avec une structuration évolutive, (2) un modèle conceptuel décrivant les concepts fondamentaux pilotant l'approche proposée, (3) une méthodologie simple pour faciliter et améliorer la gestion et réutilisation des connaissances d'ingénierie dans le projet de conception, et enfin (4) une approche de capitalisation des connaissances du produit par la gestion des relations sémantiques entre entités d'ingénierie en début de cycle de vie de produits
Over the last twenty years, the deep changes noticed in the field of product development, led to methodological change in the field of design. These changes have, in fact, benefited from the significant development of Information and Communication Technologies (ICT) (such as PLM systems dedicated to the product lifecycle management), and from collaborative engineering approaches, playing key role in the improvement of product development process (PDP). In the current PLM market, PLM solutions from different vendors still present strong heterogeneities, and remain on proprietary technologies and formats for competitiveness and profitability reasons, what does not ease communication and sharing between various ICTs contributing to the PDP. Our research work focuses on PDP, and aims to contribute to the improvement of the integrated management of mechanical design and numerical simulation data in a PLM context. The research contribution proposes an engineering knowledge capitalization solution based on a product semantic relationship management approach, organized as follows : (1) a data structuring approach driven by so called semi-structured entities with a structure able to evolve along the PDP, (2) a conceptual model describing the fundamental concepts of the proposed approach, (3) a methodology that facilitates and improves the management and reuse of engineering knowledge within design project, and (4) a knowledge capitalization approach based on the management of semantic relationships that exist or may exist between engineering entities within the product development process
APA, Harvard, Vancouver, ISO, and other styles
23

Claude, Grégory. "Modélisation de documents et recherche de points communs - Proposition d'un framework de gestion de fiches d'anomalie pour faciliter les maintenances corrective et préventive." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00701752.

Full text
Abstract:
La pratique quotidienne d'une activité génère un ensemble de connaissances qui se traduisent par un savoir-faire, une maîtrise, une compétence qu'une personne acquiert au cours du temps. Pour les préserver, la capitalisation des connaissances est devenue une activité essentielle dans les entreprises. Nos travaux de recherche ont pour objectif de modéliser et mettre en œuvre un système afin d'extraire et de formaliser les connaissances issues des anomalies qui surviennent dans un contexte de production industrielle et de les intégrer dans un framework facilitant la maintenance corrective et préventive. Ce framework structure la connaissance sous la forme de groupes d'anomalies. Ces groupes peuvent être rapprochés des patterns : ils représentent un problème auquel une ou plusieurs solutions sont associées. Ils ne sont pas définis a priori, c'est l'analyse des anomalies passées qui génère des groupes pertinents, qui peuvent évoluer avec l'ajout de nouvelles anomalies. Pour identifier ces patterns, supports de la connaissance, un processus complet d'extraction et de formalisation de la connaissance est suivi, Knowledge Discovery in Databases. Ce processus a été appliqué dans des domaines très variés. Nous lui donnons ici une nouvelle dimension, le traitement d'anomalies et plus particulièrement celles qui surviennent au cours de processus de production industrielle. Les étapes génériques qui le composent, depuis la simple sélection des données jusqu'à l'interprétation des patterns qui supportent les connaissances, sont considérées pour affecter à chacune un traitement spécifique pertinent par rapport à notre contexte applicatif.
APA, Harvard, Vancouver, ISO, and other styles
24

Mancosu, Giorgio. "La transparence publique à l'ère de l'Open Data. Etude comparée Italie-France." Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020010.

Full text
Abstract:
Les objets, les supports, les sources, la gouvernance, les contenus, les acteurs, les fins et les formes de la transparence publique connaissent à présent une évolution rapide et profonde, qui dépasse les frontières nationales et dépend de l’interaction entre facteurs politiques, technologiques, juridiques et socio-culturels. Cela s’avère notamment lorsque la transparence se prévaut des moyens du paradigme de l’"Open Government Data" et s’inscrit dans les perspectives de la doctrine de l’"Open Government".Ce travail de recherche vise à esquisser les mutations et les axes de progrès de la transparence publique, à l’aune de l’évolution des systèmes juridiques italien et français. On se penchera à titre liminaire sur l’articulation entre les notions de transparence et d’ouverture, afin de cerner les questions juridiques soulevées par l’ouverture des données publiques à des fins de transparence. Ensuite, on parcourra le niveau supranational, à la fois un forum et un lieu d’élaboration des orientations fondamentales en la matière. Une place de choix sera réservée au droit (et à la politique) de l’Union Européenne, dont on examinera les développements les plus récents. Enfin, on analysera les ordres juridiques susmentionnés, qui font à l’heure actuelle de la refonte du droit à l’information publique l’un des chantiers majeurs, dans le cadre de partenariats multi-parties prenantes tels que l’"Open Government Partnership"
Objects, medium, sources, governance, content, actors, purposes and forms of public transparency are experiencing a rapid and profound evolution, which transcends national borders, and depends on the interaction between political, technological, legal and socio-cultural drivers. This happens when transparency exploiting the Open Government Data means and falls under the Open Government framework.Through the Italian and French legal systems, this thesis aims to highlight the recent advancements in public transparency. At first, we will look at the interplay between the concepts of transparency and openness, to identify the legal issues raised by the disclosure of public data. Subsequently, we will turn to the supranational context, which plays a key role in developing guidelines, standards and recommendations. A special place will be reserved to the right (and political) of the European Union. In the second part, we will analyse the above-mentioned legal systems, which are actively engaged in the wider reform of their Public Information Acts, within the framework of multi-stakeholder initiatives, such as the Open Government Partnership.On the whole, we will see how the shift from “transparency through documents” ” to “transparency through data” challenges the public action models
APA, Harvard, Vancouver, ISO, and other styles
25

Ait, Mouhoub Louali Nadia. "Le service public à l’heure de l’Open Data." Thesis, Paris 2, 2018. http://www.theses.fr/2018PA020022.

Full text
Abstract:
Le service public a éprouvé une ouverture massive de données publiques dite "Open Data". Ce phénomène s'est développé avec l'émergence des nouvelles technologies d’information dans les administrations publiques, devenant un facteur important dans le renouveau et la modernisation du service public. Cette nouvelle tendance que le monde explore depuis quelques années, vise à partager et à réutiliser les données publiques détenues par le service public. L’objectif de l’Open Data étant la transparence démocratique en réponse à l’exigence de rendre des comptes aux citoyens, pour lutter contre la corruption et promouvoir un gouvernement ouvert en faveur de la participation citoyenne. À cet égard, le concept Open Data mène à nous interroger sur l'importance de l'ouverture des données du service public, sur le degré de l'obligation de s'adapter à cette ouverture, sur les conséquences de l'intrusion d’Open Data dans la sphère du service public et sur les limites imposées à l'Open Data. Pour répondre à ces interrogations, on s’intéressera à l’apparition et au développement de l’Open Data dans le service public, tout en illustrant son impact sur l'évolution de la démocratie et son rôle éminent dans la création de nouveaux services publics, avec notamment le cas du service public de la donnée en France. Ainsi, le meilleur angle pour étudier l'ouverture des données publiques dans le service public sera le droit public comparé, cela nous permettra d'analyser la pratique d'Open Data dans les pays pionniers dans ce domaine et les pays du Maghreb qui intègrent, depuis peu, cette nouvelle méthode de travail. Cette étude a pour but aussi de démontrer ce que l'Open Data peu apporter concrètement à l'administration et au citoyen
The public service has experienced a massive opening of public data known as "Open Data". This phenomenon has developed with the emergence of new information technologies in public administrations, becoming then an important factor in the renewal and modernization of the public service. This new trend that the world has been exploring for a few years aims to share and reuse the public data held by the public service, while keeping as objective the democratic transparency in response to the requirement to be accountable to citizens to fight against corruption and promote Open Government in favor of citizen involvement.In this respect, the Open Data concept leads us to question ourselves about the importance of opening up data in the public service, about the degree of obligation to adapt to this opening, also about the consequences of the Open Data’s intrusion into the sphere of the public service and the limits that Open Data may encounter.To answer these questions, we will focus on the emergence and development of Open Data in the public service, with a depiction of its impact on democracy evolution and its eminent role in the creation of new public services, such as the case of data public service in France. Thus, the best angle to study the opening of public data in the public service is the comparative public law, this allows us to analyze the practice of Open Data in the pioneer countries in this field and the Maghreb countries who recently integrated this new way of work. This study also aims to prove what are the benefits of Open Data for the administration and the citizen
APA, Harvard, Vancouver, ISO, and other styles
26

Troussier, Nadège. "Contribution à l'intégration du calcul mécanique dans la conception de produits techniques : proposition méthodologique pour l'utilisation et la réutilisation." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10218.

Full text
Abstract:
De par l'evolution des processus industriels, la simulation du comportement des produits techniques est employee de plus en plus frequemment, par de plus en plus d'acteurs, situes sur des sites differents. De plus en plus tot dans le processus de conception, bien avant que le produit n'existe physiquement, le calcul est utilise et souvent reutilise au sein d'un meme projet de conception mais aussi de facon transverse a differents projets. Cette situation fait apparaitre un certain nombre de difficultes (multitude des modeles manipules, dynamique d'evolution du processus de conception, difficultes de cooperation entre les acteurs et capitalisation et reutilisation des connaissances generees par le calcul). Dans ce contexte, le travail de these propose, a partir d'observations sur le terrain industriel, une contribution methodologique a la prise en compte du calcul mecanique dans le processus de conception. Cette methodologie s'appuie sur une structuration des informations manipulees lors de la mise en uvre du calcul mecanique en conception et vise a fournir une aide a la gestion des modifications et a la modelisation, un support a la capitalisation et a la reutilisation de modeles, de demarches de calcul et des connaissances issues du calcul, et un support a la cooperation entre le concepteur et l'analyste. Cette structuration s'articule autour des concepts de modele mecanique et de cas d'ecole. Le modele mecanique est introduit pour representer le comportement mecanique du produit, ideal pour repondre aux objectifs du calcul, independamment de la methode et de l'outil de calcul. Le cas d'ecole est un calcul auquel un statut particulier est donne relativement a la genericite des informations qu'il contient. Une maquette numerique est egalement presentee pour illustrer l'interet de la proposition dans le travail quotidien du concepteur et de l'analyste.
APA, Harvard, Vancouver, ISO, and other styles
27

El, Ghosh Mirna. "Automatisation du raisonnement et décision juridiques basés sur les ontologies." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR16/document.

Full text
Abstract:
Le but essentiel de la thèse est de développer une ontologie juridique bien fondée pour l'utiliser dans le raisonnement à base des règles. Pour cela, une approche middle-out, collaborative et modulaire est proposée ou des ontologies fondationnelles et core ont été réutilisées pour simplifier le développement de l'ontologie. L’ontologie résultante est adoptée dans une approche homogène a base des ontologies pour formaliser la liste des règles juridiques du code pénal en utilisant le langage logique SWRL
This thesis analyses the problem of building well-founded domain ontologies for reasoning and decision support purposes. Specifically, it discusses the building of legal ontologies for rule-based reasoning. In fact, building well-founded legal domain ontologies is considered as a difficult and complex process due to the complexity of the legal domain and the lack of methodologies. For this purpose, a novel middle-out approach called MIROCL is proposed. MIROCL tends to enhance the building process of well-founded domain ontologies by incorporating several support processes such as reuse, modularization, integration and learning. MIROCL is a novel modular middle-out approach for building well-founded domain ontologies. By applying the modularization process, a multi-layered modular architecture of the ontology is outlined. Thus, the intended ontology will be composed of four modules located at different abstraction levels. These modules are, from the most abstract to the most specific, UOM(Upper Ontology Module), COM(Core Ontology Module), DOM(Domain Ontology Module) and DSOM(Domain-Specific Ontology Module). The middle-out strategy is composed of two complementary strategies: top-down and bottom-up. The top-down tends to apply ODCM (Ontology-Driven Conceptual Modeling) and ontology reuse starting from the most abstract categories for building UOM and COM. Meanwhile, the bottom-up starts from textual resources, by applying ontology learning process, in order to extract the most specific categories for building DOM and DSOM. After building the different modules, an integration process is performed for composing the whole ontology. The MIROCL approach is applied in the criminal domain for modeling legal norms. A well-founded legal domain ontology called CriMOnto (Criminal Modular Ontology) is obtained. Therefore, CriMOnto has been used for modeling the procedural aspect of the legal norms by the integration with a logic rule language (SWRL). Finally, an hybrid approach is applied for building a rule-based system called CORBS. This system is grounded on CriMOnto and the set of formalized rules
APA, Harvard, Vancouver, ISO, and other styles
28

Rieu, Dominique. "Ingénierie des systèmes d'information : bases de données, bases de connaissances et méthodes de conception." Habilitation à diriger des recherches, 1999. http://tel.archives-ouvertes.fr/tel-00004846.

Full text
Abstract:
Ce mémoire est le reflet de 17 ans d'activités de recherche liées aux modèles et aux techniques orientés objet mises en oeuvre en base de données, en représentation des connaissances puis plus récemment en système d'information. J'ai participé à des projets dont l'objectif commun était de contribuer à l'évolution des SGBD et des SRC pour une meilleure prise en compte des informations complexes et évolutives liées aux applications d'ingénierie (la CAO, l'ingénierie des méthodes, les systèmes d'information produit, etc.). Les principaux apports de ces projets ont été de montrer que les approches " tout objet " constituent un précieux outil de représentation des connaissances : · permettant d'exprimer la sémantique des systèmes et de leurs concepts, · facilitant la mise en oeuvre de mécanismes d'évolution, · favorisant l'élaboration d'environnements adaptables à des besoins particuliers. L'approche objet offre de fait la possibilité de réutiliser des classes. Cependant, il est clair qu'aujourd'hui un concepteur ne peut plus spécifier et implanter un système en partant d'une granularité aussi fine. Il ne s'agit plus de réutiliser une classe ou un mécanisme de bas niveau tel que l'instanciation mais de favoriser la réutilisation d'architectures de granularité plus importante (ensemble de classes, de types, etc.) et détenant en propre leurs propres mécanismes d'utilisation. La réutilisation à tous les stades du développement des systèmes d'information est devenue depuis 1997 mon principal thème de recherche. L'accent est particulièrement mis sur les approches à base de patrons (pattern).
APA, Harvard, Vancouver, ISO, and other styles
29

Bilasco, Ioan Marius. "Une approche sémantique pour la réutilisation et l'adaptation de donnée 3D." Phd thesis, 2007. http://tel.archives-ouvertes.fr/tel-00206220.

Full text
Abstract:
Le nombre d'applications et de dispositifs d'accès adoptant le 3D accroît sans cesse. Cette tendance encourage la création d'outils pour la recherche, la réutilisation et l'adaptation de données 3D. La plupart du temps, ces outils sont développés dans le cadre d'une application spécifique. Ceci est en partie dû au fait que les données 3D ne sont décrites généralement que par leur géométrie et par leur apparence ce qui rend difficile leur utilisation indépendamment d'un domaine d'application spécifique.
Nous proposons une solution qui complète la description par des annotations sémantiques et les organise au sein d'un modèle (3DSEAM) suivant la dimension décrite (géométrie, apparence, topologie, sémantique et profil média). Afin d'accommoder la variabilité du modèle en termes de descriptions sémantiques, nous proposons une extension d'OQL spécifique au modèle 3DSEAM. Une plate-forme (3DAF) fédère les moyens d'instanciation et d'interrogation des descriptions. Au-dessus de 3DAF, nous construisons une plate-forme (3DSDL) pour la réutilisation de données 3D et de leur sémantique. Nous adoptons une approche d'adaptation de données 3D à base de règles interprétées et exécutées par une plate-forme d'adaptation (Adapt3D). La réutilisation et l'adaptation s'appuient sur l'utilisation d'un standard XML de représentation de données 3D : le X3D. Les transformations apportées aux données sont décrites en utilisant XSLT.
Une application de gestion de scènes 3D urbaines est proposée pour valider les divers formalismes introduits par notre approche. L'application s'appuie sur une représentation MPEG-7 de l'entrepôt de descriptions. L'interrogation est assurée par XQuery.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography