To see the other types of publications on this topic, follow the link: Entrepôts de données – Services de santé.

Dissertations / Theses on the topic 'Entrepôts de données – Services de santé'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 dissertations / theses for your research on the topic 'Entrepôts de données – Services de santé.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Griffier, Romain. "Intégration et utilisation secondaire des données de santé hospitalières hétérogènes : des usages locaux à l'analyse fédérée." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0479.

Full text
Abstract:
Les données issues du soin peuvent être utilisées pour des finalités autres que celles pour lesquelles elles ont été collectées initialement : c’est l’utilisation secondaire des données de santé. Dans le contexte hospitalier, afin de lever les verrous de l’utilisation secondaire des données de santé (verrous liés aux données et verrous organisationnels), une stratégie classique consiste à mettre en place un Entrepôt de Données de Santé (EDS). Dans le cadre de cette thèse, trois contributions à l’EDS du CHU de Bordeaux sont décrites. Premièrement, une méthode d’alignement des data éléments de biologie numérique basée sur les instances et conforme aux règles de protection des données à caractère personnel est présentée, avec une F-mesure à 0,850, permettant de réduire l’hétérogénéité sémantique des données. Ensuite, une adaptation du modèle d’intégration des données cliniques d’i2b2 est proposée pour assurer la persistance des données d’un EDS dans une base de données NoSQL, Elasticsearch. Cette implémentation a été évaluée sur la base de données de l’EDS du CHU de Bordeaux et retrouve des performances améliorées en termes de stockage et de temps de requêtage, par rapport à une base de données relationnelle. Enfin, une présentation de l’environnement EDS du CHU de Bordeaux est réalisée, avec la description d’un premier EDS dédié aux usages locaux et qui peut être exploité en autonomie par les utilisateurs finaux (i2b2), et d’un second EDS, dédié aux réseaux fédérés (OMOP) permettant notamment la participation au réseau fédéré DARWIN-EU
Healthcare data can be used for purposes other than those for which it was initially collected: this is the secondary use of health data. In the hospital context, to overcome the obstacles to secondary use of healthcaree data (data and organizational barriers), a classic strategy is to set up Clinical Data Warehouses (CDWs). This thesis describes three contributions to the Bordeaux University Hospital’s CDW. Firstly, an instance-based, privacy-preserving, method for mapping numerical biology data elements is presented, with an F-measure of 0,850, making it possible to reduce the semantic heterogeneity of data. Next, an adaptation of the i2b2 clinical data integration model is proposed to enable CDW data persistence in a NoSQL database, Elasticsearch. This implementation has been evaluated on the Bordeaux University Hospital’s CDW, showing improved performance in terms of storage and query time, compared with a relational database. Finally, the Bordeaux University Hospital’s CDW environment is presented, with the description of a first CDW dedicated to local uses that can be used autonomously by end users (i2b2), and a second CDW dedicated to federated networks (OMOP) enabling participation in the DARWIN-EU federated network
APA, Harvard, Vancouver, ISO, and other styles
2

Kempf, Emmanuelle. "Structuration, standardisation et enrichissement par traitement automatique du langage des données relatives au cancer au sein de l’entrepôt de données de santé de l’Assistance Publique – Hôpitaux de Paris." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS694.

Full text
Abstract:
Le cancer est un enjeu de santé publique dont l’amélioration de la prise en charge repose, entre autres leviers, sur l’exploitation d’entrepôts de données de santé (EDS). Leur utilisation implique la maîtrise d’obstacles tels que la qualité, la standardisation et la structuration des données de soins qui y sont stockées. L’objectif de cette thèse était de démontrer qu’il est possible de lever les verrous d’utilisation secondaire des données de l’EDS de l’Assistance Publique - Hôpitaux de Paris (AP-HP) concernant des patients atteints de cancer à diverses finalités telles que le pilotage de la sécurité et de la qualité des soins, et les projets de recherche clinique observationnelle et expérimentale. En premier lieu, l’identification d’un jeu de données minimales a permis de concentrer l’effort de formalisation des items d’intérêt propres à la discipline. A partir de 15 items identifiés, 4 cas d’usages relevant de perspectives médicales distinctes ont pu être développés avec succès : pilotage concernant l’automatisation de calculs d’indicateurs de sécurité et de qualité des soins nécessaires à la certification internationale des établissements de santé, épidémiologie clinique concernant l’impact des mesures de santé publique en temps de pandémie sur le retard diagnostic des cancers, aide à la décision concernant l’optimisation du recrutement des patients dans des essais cliniques, développement de réseaux de neurones concernant la pronostication par vision par ordinateur. Une deuxième condition nécessaire à l’exploitation d’un EDS en oncologie repose sur la formalisation optimale et interopérable entre plusieurs EDS de ce jeu de données minimales. Dans le cadre de l’initiative française PENELOPE visant à améliorer le recrutement des patients dans des essais cliniques, la thèse a évalué la plus-value de l’extension oncologie du modèle de données commun OMOP. Cette version 5.4 d’OMOP permettait de doubler le taux de formalisation de critères de préscreening d’essais cliniques de phase I à IV. Seulement 23% de ces critères pouvaient être requetés automatiquement sur l’EDS de l’AP-HP, et ce, modulo une valeur prédictive positive inférieure à 30%. Ce travail propose une méthodologie inédite pour évaluer la performance d'un système d’aide au recrutement : à partir des métriques habituelles (sensibilité, spécificité, valeur prédictive positive, valeur prédictive négative), mais aussi à partir d’indicateurs complémentaires caractérisant l’adéquation du modèle choisi avec l’EDS concerné (taux de traduction et d'exécution des requêtes). Enfin, le travail a permis de montrer le caractère palliatif du traitement automatique du langage naturel concernant la structuration des données d'un EDS en informant le bilan d’extension initial d’un diagnostic de cancer et les caractéristiques histopronostiques des tumeurs. La confrontation des métriques de performance d’extraction textuelle et des ressources humaines et techniques nécessaires au développement de systèmes de règles et d’apprentissage automatique a permis de valoriser, pour un certain nombre de situations, la première approche. La thèse a identifié qu’une préannotation automatique à base de règles avant une phase d’annotation manuelle pour entraînement d’un modèle d’apprentissage machine était une approche optimisable. Les règles semblent suffire pour les tâches d’extraction textuelle d’une certaine typologie d’entités bien caractérisée sur un plan lexical et sémantique. L’anticipation et la modélisation de cette typologie pourrait être possible en amont de la phase d’extraction textuelle, afin de différencier, en fonction de chaque type d’entité, dans quelle mesure l’apprentissage machine devrait suppléer aux règles. La thèse a permis de démontrer qu’une attention portée à un certain nombre de thématiques des sciences des données permettait l’utilisation efficiente d’un EDS et ce, à des fins diverses en oncologie
Cancer is a public health issue for which the improvement of care relies, among other levers, on the use of clinical data warehouses (CDWs). Their use involves overcoming obstacles such as the quality, standardization and structuring of the care data stored there. The objective of this thesis was to demonstrate that it is possible to address the challenges of secondary use of data from the Assistance Publique - Hôpitaux de Paris (AP-HP) CDW regarding cancer patients, and for various purposes such as monitoring the safety and quality of care, and performing observational and experimental clinical research. First, the identification of a minimal data set enabled to concentrate the effort of formalizing the items of interest specific to the discipline. From 15 identified items, 4 use cases from distinct medical perspectives were successfully developed: automation of calculations of safety and quality of care required for the international certification of health establishments , clinical epidemiology regarding the impact of public health measures during a pandemic on the delay in cancer diagnosis, decision support regarding the optimization of patient recruitment in clinical trials, development of neural networks regarding prognostication by computer vision. A second condition necessary for the CDW use in oncology is based on the optimal and interoperable formalization between several CDWs of this minimal data set. As part of the French PENELOPE initiative aiming at improving patient recruitment in clinical trials, the thesis assessed the added value of the oncology extension of the OMOP common data model. This version 5.4 of OMOP enabled to double the rate of formalization of prescreening criteria for phase I to IV clinical trials. Only 23% of these criteria could be automatically queried on the AP-HP CDW, and this, modulo a positive predictive value of less than 30%. This work suggested a novel methodology for evaluating the performance of a recruitment support system: based on the usual metrics (sensitivity, specificity, positive predictive value, negative predictive value), but also based on additional indicators characterizing the adequacy of the model chosen with the CDW related (rate of translation and execution of queries). Finally, the work showed how natural language processing related to the CDW data structuring could enrich the minimal data set, based on the baseline tumor dissemination assessment of a cancer diagnosis and on the histoprognostic characteristics of tumors. The comparison of textual extraction performance metrics and the human and technical resources necessary for the development of rules and machine learning systems made it possible to promote, for a certain number of situations, the first approach. The thesis identified that automatic rule-based preannotation before a manual annotation phase for training a machine learning model was an optimizable approach. The rules seemed to be sufficient for textual extraction tasks of a certain typology of entities that are well characterized on a lexical and semantic level. Anticipation and modeling of this typology could be possible upstream of the textual extraction phase, in order to differentiate, depending on each type of entity, to what extent machine learning should replace the rules. The thesis demonstrated that a close attention to a certain number of data science challenges allowed the efficient use of a CDW for various purposes in oncology
APA, Harvard, Vancouver, ISO, and other styles
3

Declercq, Charlotte. "Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25814/25814.pdf.

Full text
Abstract:
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
4

Bussière, Clémence. "Recours aux soins de santé primaires des personnes en situation de handicap : analyses économiques à partir des données de l’enquête Handicap-Santé." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS049/document.

Full text
Abstract:
Le handicap est multifactoriel. Toutes ses composantes sont potentiellement sources d’obstacles et de désavantages. L’originalité de cette thèse est de tenir compte de la complexité de définition du handicap dans l’analyse du recours aux soins de santé primaires. L’objectif ultime des soins de santé primaires est une meilleure santé pour tous, passant par la réduction des exclusions et des inégalités sociales d’accès au système santé. Nous appréhendons le handicap de différentes manières jusqu’à intégrer les trois dimensions d’« une situation de handicap » (dimension fonctionnelle, dimension environnementale, et participation sociale) dans un même modèle explicatif. D’abord, nous analysons la dimension fonctionnelle en considérant les personnes handicapées comme physiquement limitées. Puis, nous investiguons la dimension environnementale par une étude chez les adultes vivant en institution. Enfin, nous adoptons une vision globale du handicap en intégrant simultanément toutes les dimensions par la mesure de capabilités latentes. Le modèle estimé s’approche d’une comparabilité inter-individus révélant, toutes choses égales par ailleurs, les niveaux sur lesquels agir pour pallier les inégalités. Les analyses suggèrent qu’un environnement favorable, sociétal et/ou socioéconomique, pourrait compenser les effets négatifs des limitations et des restrictions cognitives et physiques. Nous concluons sur plusieurs voies possibles afin d’améliorer le recours aux soins primaires : agir sur la dimension environnementale et sur la participation sociale
Disability is multifactorial. All its components are potential sources of barriers and disadvantages. The originality of this thesis is to take into account the complexity of disability definition to analyze the use of primary health care. The ultimate goal of primary health care is better health for all, reducing exclusion and social inequalities in access to the health care system. We approach disability in different ways, ending with a model that includes the three dimensions of a “disability situation” (functional dimension, environmental dimension and social participation). First we analyze the functional dimension considering people with disabilities as physically limited. Then, we investigate the environmental dimension through analysis among adults living in institutions. Finally, we adopt a global vision of disability that integrates all the dimensions simultaneously through the measures of latent capabilities. The estimated model approximates a fundamental inter-individual comparability and reveals all things being equal, the levels on which to act to overcome inequalities. The analyses suggest that favorable environment, societal and/or socioeconomic could offset the negative impact of the limitations and cognitive and physical restrictions. We conclude on several possible waysto improve the use of primary care: acting on the environmental dimension and acting on social participation
APA, Harvard, Vancouver, ISO, and other styles
5

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Full text
Abstract:
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
APA, Harvard, Vancouver, ISO, and other styles
6

Samuel, John. "Feeding a data warehouse with data coming from web services. A mediation approach for the DaWeS prototype." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22493/document.

Full text
Abstract:
Cette thèse traite de l’établissement d’une plateforme logicielle nommée DaWeS permettant le déploiement et la gestion en ligne d’entrepôts de données alimentés par des données provenant de services web et personnalisés à destination des petites et moyennes entreprises. Ce travail s’articule autour du développement et de l’expérimentation de DaWeS. L’idée principale implémentée dans DaWeS est l’utilisation d’une approche virtuelle d’intégration de données (la médiation) en tant queprocessus ETL (extraction, transformation et chargement des données) pour les entrepôts de données gérés par DaWeS. A cette fin, un algorithme classique de réécriture de requêtes (l’algorithme inverse-rules) a été adapté et testé. Une étude théorique sur la sémantique des requêtes conjonctives et datalog exprimées avec des relations munies de limitations d’accès (correspondant aux services web) a été menée. Cette dernière permet l’obtention de bornes supérieures sur les nombres d’appels aux services web requis dans l’évaluation de telles requêtes. Des expérimentations ont été menées sur des services web réels dans trois domaines : le marketing en ligne, la gestion de projets et les services d’aide aux utilisateurs. Une première série de tests aléatoires a été effectuée pour tester le passage à l’échelle
The role of data warehouse for business analytics cannot be undermined for any enterprise, irrespective of its size. But the growing dependence on web services has resulted in a situation where the enterprise data is managed by multiple autonomous and heterogeneous service providers. We present our approach and its associated prototype DaWeS [Samuel, 2014; Samuel and Rey, 2014; Samuel et al., 2014], a DAta warehouse fed with data coming from WEb Services to extract, transform and store enterprise data from web services and to build performance indicators from them (stored enterprise data) hiding from the end users the heterogeneity of the numerous underlying web services. Its ETL process is grounded on a mediation approach usually used in data integration. This enables DaWeS (i) to be fully configurable in a declarative manner only (XML, XSLT, SQL, datalog) and (ii) to make part of the warehouse schema dynamic so it can be easily updated. (i) and (ii) allow DaWeS managers to shift from development to administration when they want to connect to new web services or to update the APIs (Application programming interfaces) of already connected ones. The aim is to make DaWeS scalable and adaptable to smoothly face the ever-changing and growing web services offer. We point out the fact that this also enables DaWeS to be used with the vast majority of actual web service interfaces defined with basic technologies only (HTTP, REST, XML and JSON) and not with more advanced standards (WSDL, WADL, hRESTS or SAWSDL) since these more advanced standards are not widely used yet to describe real web services. In terms of applications, the aim is to allow a DaWeS administrator to provide to small and medium companies a service to store and query their business data coming from their usage of third-party services, without having to manage their own warehouse. In particular, DaWeS enables the easy design (as SQL Queries) of personalized performance indicators. We present in detail this mediation approach for ETL and the architecture of DaWeS. Besides its industrial purpose, working on building DaWeS brought forth further scientific challenges like the need for optimizing the number of web service API operation calls or handling incomplete information. We propose a bound on the number of calls to web services. This bound is a tool to compare future optimization techniques. We also present a heuristics to handle incomplete information
APA, Harvard, Vancouver, ISO, and other styles
7

Salem, Rashed. "Active XML Data Warehouses for Intelligent, On-line Decision Support." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO22002.

Full text
Abstract:
Un système d'aide à la décision (SIAD) est un système d'information qui assiste lesdécideurs impliqués dans les processus de décision complexes. Les SIAD modernesont besoin d'exploiter, en plus de données numériques et symboliques, des donnéeshétérogènes (données texte, données multimédia, ...) et provenant de sources diverses(comme le Web). Nous qualifions ces données complexes. Les entrepôts dedonnées forment habituellement le socle des SIAD. Ils permettent d'intégrer des données provenant de diverses sources pour appuyer le processus décisionnel. Cependant, l'avènement de données complexes impose une nouvelle vision de l'entreposagedes données, y compris de l'intégration des données, de leur stockage et de leuranalyse. En outre, les exigences d'aujourd'hui imposent l'intégration des donnéescomplexes presque en temps réel, pour remplacer le processus ETL traditionnel(Extraction, Transformation et chargement). Le traitement en temps réel exige unprocessus ETL plus actif. Les tâches d'intégration doivent réagir d'une façon intelligente, c'est-à-dire d'une façon active et autonome pour s'adapter aux changementsrencontrés dans l'environnement d'intégration des données, notamment au niveaudes sources de données.Dans cette thèse, nous proposons des solutions originales pour l'intégration dedonnées complexes en temps réel, de façon active et autonome. En eet, nous avons conçu une approche générique basé sur des métadonnées, orientée services et orienté évènements pour l'intégration des données complexes. Pour prendre en charge lacomplexité des données, notre approche stocke les données complexes à l'aide d'unformat unie en utilisant une approche base sur les métadonnées et XML. Nous noustraitons également la distribution de données et leur l'interopérabilité en utilisantune approche orientée services. Par ailleurs, pour considérer le temps réel, notreapproche stocke non seulement des données intégrées dans un référentiel unie,mais présente des fonctions d'intégration des données a la volée. Nous appliquonségalement une approche orientée services pour observer les changements de donnéespertinentes en temps réel. En outre, l'idée d'intégration des données complexes defaçon active et autonome, nous proposons une méthode de fouille dans les évènements.Pour cela, nous proposons un algorithme incrémentiel base sur XML pourla fouille des règles d'association a partir d’évènements. Ensuite, nous denissonsdes règles actives a l'aide des données provenant de la fouille d'évènements an deréactiver les tâches d'intégration.Pour valider notre approche d'intégration de données complexes, nous avons développé une plateforme logicielle, à savoir AX-InCoDa ((Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa est une application Web implémenté à l'aide d'outils open source. Elle exploite les standards du Web (comme les services Web et XML) et le XML actif pour traiter la complexité et les exigences temps réel. Pour explorer les évènements stockés dans base d'évènement, nous avons proposons une méthode de fouille d'évènements an d'assurer leur autogestion.AX-InCoDa est enrichi de règles actives L'ecacite d'AX-InCoDa est illustrée par une étude de cas sur des données médicales. En, la performance de notre algorithme de fouille d'évènements est démontrée expérimentalement
A decision support system (DSS) is an information system that supports decisionmakers involved in complex decision-making processes. Modern DSSs needto exploit data that are not only numerical or symbolic, but also heterogeneouslystructured (e.g., text and multimedia data) and coming from various sources (e.g,the Web). We term such data complex data. Data warehouses are casually usedas the basis of such DSSs. They help integrate data from a variety of sourcesto support decision-making. However, the advent of complex data imposes anothervision of data warehousing including data integration, data storage and dataanalysis. Moreover, today's requirements impose integrating complex data in nearreal-time rather than with traditional snapshot and batch ETL (Extraction, Transformationand Loading). Real-time and near real-time processing requires a moreactive ETL process. Data integration tasks must react in an intelligent, i.e., activeand autonomous way, to encountered changes in the data integration environment,especially data sources.In this dissertation, we propose novel solutions for complex data integration innear real-time, actively and autonomously. We indeed provide a generic metadatabased,service-oriented and event-driven approach for integrating complex data.To address data complexity issues, our approach stores heterogeneous data into aunied format using a metadata-based approach and XML. We also tackle datadistribution and interoperability using a service-oriented approach. Moreover, toaddress near real-time requirements, our approach stores not only integrated datainto a unied repository, but also functions to integrate data on-the-y. We also apply a service-oriented approach to track relevant data changes in near real-time.Furthermore, the idea of integrating complex data actively and autonomously revolvesaround mining logged events of data integration environment. For this sake,we propose an incremental XML-based algorithm for mining association rules fromlogged events. Then, we de ne active rules upon mined data to reactivate integrationtasks.To validate our approach for managing complex data integration, we develop ahigh-level software framework, namely AX-InCoDa (Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa is implemented as Web application usingopen-source tools. It exploits Web standards (e.g., XML and Web services) andActive XML to handle complexity issues and near real-time requirements. Besidewarehousing logged events into an event repository to be mined for self-managingpurposes, AX-InCoDa is enriched with active rules. AX-InCoDa's feasibility is illustratedby a healthcare case study. Finally, the performance of our incremental eventmining algorithm is experimentally demonstrated
APA, Harvard, Vancouver, ISO, and other styles
8

Minsart, Anne-Frédérique. "Impact de la mise en place d'un Centre d'Epidémiologie Périnatale en Wallonie et à Bruxelles sur les données en santé périnatale et analyse des nouvelles données sur la santé périnatale des immigrants et sur l'impact de l'indice de masse corporelle maternel." Doctoral thesis, Universite Libre de Bruxelles, 2013. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209481.

Full text
Abstract:
La Communauté française décide en concertation avec la Région bruxelloise et la Région wallonne, de financer un Centre d’Epidémiologie Périnatale (CEpiP). Les Communautés et Régions chargent le CEpiP de les assister dans la vérification, le remplissage et la correction des certificats concernant les naissances à partir du 1er janvier 2008. Le CEpiP est également chargé d’encoder les certificats bruxellois, les certificats wallons étant toujours encodés par un sous-traitant.

Un problème souvent rencontré dans l’analyse des certificats de naissance est la présence de données manquantes. Des informations manquaient sur 64.0% des certificats bruxellois de janvier 2008 (situation de base). Le renforcement de l’enregistrement par le CEpiP durant l’année 2008 est lié à une diminution des informations manquantes sur les certificats initiaux (à la sortie des maternités et services d’état civil) après la première et la deuxième année d’enregistrement :20,8% et 19,5% des naissances en décembre 2008 et 2009 respectivement. Le taux résiduel de données manquantes après correction grâce aux listes envoyées aux maternités et services d’Etat civil est faible. En particulier, la nationalité d’origine des parents était souvent manquante, jusqu’à 35% à Bruxelles (données non publiées), et ce taux est passé à 2.6% en 2008 et 0.1% en 2009. Certaines données manquantes ne sont pas distribuées de façon équivalente selon la nationalité de la mère, même après correction. Les mères d’origine sub-saharienne ont les taux de remplissage les moins élevés. Enfin, le taux de mort-nés a augmenté par rapport aux données de 2007, au profit des mort-nés avant l’âge de 28 semaines, et suggère une amélioration de l’enregistrement suite au renforcement de l’information.

Les données concernant l’indice de masse corporelle des patientes sont donc relevées depuis 2009 pour l’ensemble des mères qui accouchent en Belgique. L’obésité maternelle et l’immigration sont en augmentation en Belgique, et ont été rarement étudiées au travers d’études de population sur les certificats de naissance. Des études ont pourtant montré que ces mères étaient à risque de complications périnatales, comme la césarienne ou la mortalité périnatale. L’obésité et l’immigration ont en commun le fait qu’elles recouvrent des réalités médicales, sociales et relationnelles face au personnel soignant, qui les mettent à risque de complications périnatales.

Des différences en termes de complications obstétricales et néonatales entre populations immigrantes et autochtones ont été observées en Belgique et dans d’autres pays, mais elles sont encore mal comprises.

Dans un premier travail d’analyse, nous avons évalué les taux de mortalité périnatale chez les mères immigrantes, en fonction du fait qu’elles étaient naturalisées ou non.

Le taux de mortalité périnatale est globalement plus élevé chez les mères immigrantes (8.6‰) que non-immigrantes (6.4‰).

Le taux de mortalité périnatale est globalement plus élevé chez les mères non naturalisées (10.3‰) que chez les mères naturalisées (6.1‰).

Le taux de mortalité périnatale varie selon l’origine des mères, mais dans chaque sous-groupe étudié, les mères non naturalisées ont un taux plus élevé de mortalité périnatale.

Des études ont successivement montré davantage, ou moins de césariennes chez les mères immigrantes. Peu de facteurs confondants étaient généralement pris en compte. Dans un second travail d’analyse, nous avons comparé les taux de césarienne dans plusieurs sous-groupes de nationalités.

Les taux de césarienne varient selon les sous-groupes de nationalités. Les mères originaires d’Afrique sub-saharienne ont un odds ratio ajusté pour la césarienne de 2.06 (1.62-2.63) en comparaison aux mères belges. L’odds ratio ajusté n’est plus statistiquement significatif après introduction des variables anthropométriques dans le modèle multivariable pour les mères d’Europe de l’Est, et après introduction des interventions médicales pour les mères du Maghreb.

Peu d’études ont analysé la relation entre l’obésité maternelle et les complications néonatales, et la plupart de ces études n’ont pas ajusté leurs résultats pour plusieurs variables confondantes. Nous avons eu pour but dans un troisième travail d’analyse d’étudier la relation entre l’obésité maternelle et les paramètres néonatals, en tenant compte du type de travail (induit ou spontané) et du type d’accouchement (césarienne ou voie basse). Les enfants de mères obèses ont un excès de 38% d’admission en centre néonatal après ajustement pour toutes les caractéristiques du modèle multivariable (intervalle de confiance à 95% :1.22-1.56) ;les enfants de mères obèses en travail spontané et induit ont également un excès de risque de 45% (1.21-1.73) et 34% (1.10-1.63) respectivement, alors qu’après une césarienne programmée l’excès de risque est de 18% (0.86-1.63) et non statistiquement significatif.

Les enfants de mères obèses ont un excès de 31% de taux d’Apgar à 1 minute inférieur à 7, après ajustement pour toutes les caractéristiques du modèle mutivariable (1.15-1.49) ;les enfants de mères obèses en travail spontané et induit ont également un excès de risque de 26% (1.04-1.52) et 38% (1.12-1.69) respectivement, alors qu’après une césarienne programmée l’excès de risque est de 50% (0.96-2.36) et non statistiquement significatif.

In 2008, a Centre for Perinatal Epidemiology was created inter alia to assist the Health Departments of Brussels-Capital City Region and the French Community to check birth certificates. A problem repeatedly reported in birth certificate data is the presence of missing data. The purpose of this study is to assess the changes brought by the Centre in terms of completeness of data registration for the entire population and according to immigration status. Reinforcement of data collection was associated with a decrease of missing information. The residual missing data rate was very low. Education level and employment status were missing more often in immigrant mothers compared to Belgian natives both in 2008 and 2009. Mothers from Sub-Saharan Africa had the highest missing rate of socio-economic data. The stillbirth rate increased from 4.6‰ in 2007 to 8.2‰ in 2009. All twin pairs were identified, but early loss of a co-twin before 22 weeks was rarely reported.

Differences in neonatal mortality among immigrants have been documented in Belgium and elsewhere, and these disparities are poorly understood. Our objective was to compare perinatal mortality rates in immigrant mothers according to citizenship status. Perinatal mortality rate varied according to the origin of the mother and her naturalization status: among immigrants, non-naturalized immigrants had a higher incidence of perinatal mortality (10.3‰) than their naturalized counterparts (6.1‰). In a country with a high frequency of naturalization, and universal access to health care, naturalized immigrant mothers experience less perinatal mortality than their not naturalized counterparts.

Our second objective was to provide insight into the differential effect of immigration on cesarean section rates, using Robson classification. Cesarean section rates currently vary between Robson categories in immigrant subgroups. Immigrant mothers from Sub-Saharan Africa with a term, singleton infant in cephalic position, without previous cesarean section, appear to carry the highest burden.

If it is well known that obesity increases morbidity for both mother and fetus and is associated with a variety of adverse reproductive outcomes, few studies have assessed the relation between obesity and neonatal outcomes. This is the aim of the last study, after taking into account type of labor and delivery, as well as social, medical and hospital characteristics in a population-based analysis. Neonatal admission to intensive care and low Apgar scores were more likely to occur in infants from obese mothers, both after spontaneous and


Doctorat en Sciences médicales
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
9

Imbaud, Claire. "Influence des technologies de santé dans les parcours de soins des personnes âgées : quel plateau médico-technique ? : éléments de réponse par l’analyse des données de santé." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2380/document.

Full text
Abstract:
Le travail de cette thèse s’interroge sur les réponses à apporter en terme d’organisation de l’offre médico-technique et de sa juste répartition sur les territoires en particulier pour les patients âgés poly-pathologiques. Il part de l’hypothèse qu’il existe un espace pour des concepts de petits établissements de santé ambulatoires pluridisciplinaires, dotés d’un petit plateau médico-technique, qui permettraient de participer à fluidifier et optimiser les parcours de soins. La méthode a consisté d’une part à étudier des structures plus petites de proximité en Allemagne, les MVZ, avec une expérience plus ancienne que celle dont nous disposons en France avec les MSP ou les Centres de Santé, et d’autre part à analyser les données PMSI pour faire émerger à la fois l’existence de groupes homogènes de co-morbidités et de groupes homogènes de parcours de soins. Les résultats sont constructifs, à la fois dans l’analyse par les sciences des réseaux et par l’automatisation de représentations de parcours de soins complexes. Ils ont permis de faire émerger des patterns représentatifs de groupes, d’en caractériser la consommation de soins, en matière de dispositifs médicaux et de ressources humaines, de quantifier les distances parcourues cumulées et les coûts cumulés par les patients selon leur lieu d’habitation et les institutions de santé auxquelles elles sont adressées. Nous en tirons des éléments pour la définition et la labellisation de nouvelles structures de santé de proximité satellites d’hôpitaux plus importants. Ce travail représente une avancée particulièrement utile, à la fois conceptuelle et pratique, pour les études de données de santé complexes des personnes âgées
This work questions the answer to be given in terms of organization of the health technical offer and its fair distribution in the territories especially for the elderly patients with multimorbidities. It is based on the assumption that there is space for a concept of small multi-disciplinary outpatient health facilities, with a small health-technical platform, which would help to streamline and optimize care pathways. The method consisted on the one hand to study in Germany smaller community interdisciplinary health care center (the MVZ) in operation for a longer time than the the French multidisciplinary médical care centers. And on the other hand it analyzed the national heath data to reveal both the existence of comorbidités related groups and homogeneous care pathways related groups. The results are positive, both in network science analysis and in the automation of representations of complex care pathways. They made it possible to create representative patterns of groups, to characterize the consumption of care, in terms of medical devices and human resources, to quantify the cumulative distances traveled and the costs accumulated by patients according to their place of residence and the health institutions to which they are sent. We get addition elements for the definition and labeling of small community health centers, satellite of larger hospitals. This work represents a particularly useful step, both conceptual and practical, for complex health data studies of elderly
APA, Harvard, Vancouver, ISO, and other styles
10

Bottani, Simona. "Machine learning for neuroimaging using a very large scale clinical datawarehouse." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS110.

Full text
Abstract:
L'apprentissage automatique et l'apprentissage profond ont été utilisés pour le diagnostic assisté par ordinateur des maladies neurodégénératives. Leur limite est la validation en utilisant des données de recherche, très différentes des données de routine clinique. Les entrepôts de données de santé (EDS) permettent d'accéder à ces données. Cette thèse a consisté à appliquer des algorithmes d'apprentissage automatique à des données provenant de l'EDS de l'Assistance Publique-Hôpitaux de Paris pour valider les outils pour le diagnostic assisté par ordinateur de maladies neurodégénératives. Nous avons développé, grâce à l'annotation manuelle de 5500 images, une approche automatique pour le contrôle qualité des images par résonance magnétique cérébrales pondérées en T1 (T1w-IRM) d'un EDS. Dans le second travail, nous avons travaillé sur l'homogénéisation des T1w-IRM provenant d'un EDS. Nous avons proposé d'homogénéiser ces données cliniques en convertissant les images acquises après l'injection de gadolinium en images sans contraste. Enfin, nous avons évalué si les algorithmes pouvaient détecter la démence dans un EDS en utilisant les T1w-IRM. En identifiant la population d'intérêt grâce aux codes CIM-10, nous avons étudié comment le déséquilibre des ensembles d'entraînement peuvent biaiser les résultats et nous avons proposé des stratégies pour atténuer ces biais
Machine learning (ML) and deep learning (DL) have been widely used for the computer-aided diagnosis (CAD) of neurodegenerative diseases The main limitation of these tools is that they have been mostly validated using research data sets that are very different from clinical routine ones. Clinical data warehouses (CDW) allow access to such clinical data.This PhD work consisted in applying ML/DL algorithms to data originating from the CDW of the Greater Paris area to validate CAD of neurodegenerative diseases.We developed, thanks to the manual annotation of 5500 images, an automatic approach for the quality control (QC) of T1-weighted (T1w) brain magnetic resonance images (MRI) from a clinical data set. QC is fundamental as insufficient image quality can prevent CAD systems from working properly. In the second work, we focused on the homogenization of T1w brain MRIs from a CDW. We proposed to homogenize such large clinical data set by converting images acquired after the injection of gadolinium into non-contrast-enhanced images. Lastly, we assessed whether ML/DL algorithms could detect dementia in a CDW using T1w brain MRI. We identified the population of interest using ICD-10 codes. We studied how the imbalance of the training sets may bias the results and we proposed strategies to attenuate these biases
APA, Harvard, Vancouver, ISO, and other styles
11

Loizillon, Sophie. "Deep learning for automatic quality control and computer-aided diagnosis in neuroimaging using a large-scale clinical data warehouse." Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS258.pdf.

Full text
Abstract:
La prise en charge des patients dans les hôpitaux génère quotidiennement des données de santé essentielles pour que les médecins assurent les meilleurs soins possibles aux patients. Au cours de la dernière décennie, l'émergence des entrepôts de données de santé (EDS) a révolutionné l'exploitation des données de routine clinique à des fins de recherche. En rassemblant les données médicales issues du soin courant (dossiers médicaux électroniques, imagerie, tests de pathologie et de laboratoireldots), les EDS offrent une opportunité unique pour la recherche. L'accès à ces vastes ensembles de données cliniques constitue un avantage majeur pour le développement et le déploiement de modèles d'intelligence artificielle en routine clinique. Les outils d'IA d'aide au diagnostic sont souvent limités aux données de recherche qui sélectionnent des patients répondant à des critères d'inclusion stricts et où les images sont acquises dans le cadre de protocoles de recherche standardisés. Ces conditions diffèrent grandement de la réalité clinique et empêchent la bonne généralisation de ces outils dans la pratique clinique. Cette thèse explore des techniques de contrôle qualité automatique pour faciliter l'utilisation de données de neuroimagerie d'entrepôts de données de santé à des fins de recherche. Les images stockées dans les EDS étant très hétérogènes, nous avons développé un outil automatique capable d'évaluer la qualité globale de l'image et d'identifier efficacement les images corrompues. Nous avons amélioré l'outil existant pour les IRMs cérébrales 3D pondérées en T1, développé par (Bottani et al. 2021), en proposant une méthode innovante d'apprentissage par transfert tirant parti de la simulation d'artefacts. Dans un second temps, nous avons étendu notre contrôle qualité automatique à une autre séquence anatomique courante : l'IRM cérébrale 3D FLAIR. Les modèles d'apprentissage automatique étant sensibles aux changements de distribution, nous avons proposé un cadre d'adaptation de domaine semi-supervisé permettant de limiter le nombre de nouvelles annotations manuelles. Enfin, nous avons mené une étude de faisabilité pour évaluer le potentiel des autoencodeurs variationnels pour la détection non supervisée d'anomalies. Les résultats obtenus ont montré une corrélation entre les scores de Fazekas et le volume des lésions segmentées par notre modèle, ainsi qu'une robustesse de la méthode vis-à-vis de la qualité des images. Toutefois, nous avons observé des cas d'échec pour lesquels aucune lésion n'était détectée dans des cas présentant des lésions, ce qui empêche pour l'heure l'utilisation de tels modèles en routine clinique. Bien que les entrepôts de données de santé constituent un écosystème précieux pour la recherche, permettant une meilleure compréhension de la santé de la population générale et, à long terme, susceptible de contribuer au développement de la médecine prédictive et préventive, leurs utilisations à des fins de recherche n'est pas sans poser de difficultés
Patient's hospitalisation generates data about their health, which is essential to ensure that they receive the best possible care. Over the last decade, clinical data warehouses (CDWs) have been created to exploit this vast amount of clinical information for research purposes. CDWs offer remarkable potential for research by bringing together a huge amount of real-world data of diverse nature (electronic health records, imaging data, pathology and laboratory tests...) from up to millions of patients. Access to such large clinical routine datasets, which are an excellent representation of what is acquired daily in clinical practice, is a major advantage in the development and deployment of powerful artificial intelligence models in clinical routine. Currently, most computer-aided diagnosis models are limited by a training performed only on research datasets with patients meeting strict inclusion criteria and data acquired under highly standardised research protocols, which differ considerably from the realities of clinical practice. This gap between research and clinical data is leading to the failure of AI systems to be well generalised in clinical practice.This thesis examined how to leverage clinical data warehouse brain MRI data for research purposes.Because images gathered in CDW are highly heterogeneous, especially regarding their quality, we first focused on developing an automated solution capable of effectively identifying corrupted images in CDWs. We improved the initial automated 3D T1 weighted brain MRI quality control developed by (Bottani et al. 2021) by proposing an innovative transfer learning method, leveraging artefact simulation.In the second work, we extended our automatic quality control for T1-weighted MRI to another common anatomical sequence: 3D FLAIR. As machine learning models are sensitive to distribution shifts, we proposed a semi-supervised domain adaptation framework. Our automatic quality control tool was able to identify images that are not proper 3D FLAIR brain MRIs and assess the overall image quality with a limited number of new manual annotation of FLAIR images. Lastly, we conducted a feasibility study to assess the potential of variational autoencoders for unsupervised anomaly detection. We obtained promising results showing a correlation between Fazekas scores and volumes of lesions segmented by our model, as well as the robustness of the method to image quality. Nevertheless, we still observed failure cases where no lesion is detected at all in lesional cases, which prevents this type of model to be used in clinical routine for now.Although clinical data warehouses are an incredible research ecosystem, to enable a better understanding of the health of the general population and, in the long term, contributing to the development of predictive and preventive medicine, their use for research purposes is not without its difficulties
APA, Harvard, Vancouver, ISO, and other styles
12

Ndour, Cheikh. "Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-Saharienne." Phd thesis, Université de Pau et des Pays de l'Adour, 2014. http://tel.archives-ouvertes.fr/tel-00996996.

Full text
Abstract:
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali.
APA, Harvard, Vancouver, ISO, and other styles
13

Angoulvant, François. "Evaluation et amélioration de l'usage des antibiotiques aux urgences pédiatriques." Paris 7, 2013. http://www.theses.fr/2013PA077212.

Full text
Abstract:
Les antibiotiques sont fréquemment prescrits aux urgences pédiatriques, le plus souvent pour des infections respiratoires aiguës. Face à la problématique croissante de la résistance aux antibiotiques, l'évaluation et l'amélioration des prescriptions d'antibiotiques est une nécessité. Des indicateurs existent de longue date pour mesurer la consommation en ville et chez les patients hospitalisés. En revanche, malgré le poids des prescriptions d'antibiotiques aux urgences pédiatriques, peu de travaux y ont été effectués. Le travail doctoral avait pour but d'évaluer et d'améliorer l'usage des antibiotiques aux urgences pédiatriques. Le premier objectif était de mettre au point des indicateurs et outils pertinents pour évaluer qualitativement et quantitativement les prescriptions d'antibiotiques aux urgences pédiatriques. Nous avons montré que des indicateurs simples, tel que le pourcentage de patients souffrant infections respiratoires aiguës traités par antibiotiques, étaient utiles pour monitorer l'évolution des prescriptions d'antibiotiques lors d'interventions destinées à les améliorer. La méthodologie employée repose sur l'extraction automatisée de données du dossier médical permettant de recueillir des centaines de milliers de cas dans plusieurs sites. La deuxième question était celle de l'éducation des familles au bon usage des antibiotiques, au sein des urgences pédiatriques. Nous avons réalisé un essai randomisé, contrôlé, dans lequel 300 enfants ont été inclus. Nous avons mis en évidence une amélioration de la satisfaction et des connaissances sur le bon usag( des antibiotiques après une séance d'éducation thérapeutique sur ce thème versus une intervention contrôle
Antibiotics are frequently prescribed in pediatric emergencies department, most often for acute respiratory infections. Faced with the growing problem of resistance to antibiotics, the evaluation and improvement of the antibiotic prescriptions is crucial. Indicators of antibiotic consumption in hospital and in in ambulatory settings existed for a long time. However, despite the weight of antibiotics' prescriptions in pediatric emergencies department, few studies were conducted in these settings. This Doctoral work was designed to evaluate and improve the use of antibiotics in pediatric emergency department. Our first objective was to develop indicators and tools relevant to assess qualitatively and quantitatively antibiotics' prescriptions in pediatric emergencies department. We have shown that simple indicators, such as the percentage of patients with acute respiratory infection treated by antibiotics, were useful to monitor the evolution of the antibiotic prescriptions during interventions to improve them. The methodology is based on the automated extraction of data from the medical record to collect hundreds of thousands cases in several sites. The second issue was the education of patients and familles to the proper use of antibiotics in pediatric emergencies department. We performed a randomized, controlled blind trial in which 300 children have been included. We have showri an improvement in satisfaction and knowledge about the proper use of antibiotics after a therapeutic education on this topic versus a control intervention
APA, Harvard, Vancouver, ISO, and other styles
14

Lamer, Antoine. "Contribution à la prévention des risques liés à l’anesthésie par la valorisation des informations hospitalières au sein d’un entrepôt de données." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S021/document.

Full text
Abstract:
Introduction Le Système d'Information Hospitalier (SIH) exploite et enregistre chaque jours des millions d'informations liées à la prise en charge des patients : résultats d'analyses biologiques, mesures de paramètres physiologiques, administrations de médicaments, parcours dans les unités de soins, etc... Ces données sont traitées par des applications opérationnelles dont l'objectif est d'assurer un accès distant et une vision complète du dossier médical des patients au personnel médical. Ces données sont maintenant aussi utilisées pour répondre à d'autres objectifs comme la recherche clinique ou la santé publique, en particulier en les intégrant dans un entrepôt de données. La principale difficulté de ce type de projet est d'exploiter des données dans un autre but que celui pour lequel elles ont été enregistrées. Plusieurs études ont mis en évidence un lien statistique entre le respect d'indicateurs de qualité de prise en charge de l'anesthésie et le devenir du patient au cours du séjour hospitalier. Au CHRU de Lille, ces indicateurs de qualité, ainsi que les comorbidités du patient lors de la période post-opératoire pourraient être calculés grâce aux données recueillies par plusieurs applications du SIH. L'objectif de se travail est d'intégrer les données enregistrées par ces applications opérationnelles afin de pouvoir réaliser des études de recherche clinique.Méthode Dans un premier temps, la qualité des données enregistrées dans les systèmes sources est évaluée grâce aux méthodes présentées par la littérature ou développées dans le cadre ce projet. Puis, les problèmes de qualité mis en évidence sont traités lors de la phase d'intégration dans l'entrepôt de données. De nouvelles données sont calculées et agrégées afin de proposer des indicateurs de qualité de prise en charge. Enfin, deux études de cas permettent de tester l'utilisation du système développée.Résultats Les données pertinentes des applications du SIH ont été intégrées au sein d'un entrepôt de données d'anesthésie. Celui-ci répertorie les informations liées aux séjours hospitaliers et aux interventions réalisées depuis 2010 (médicaments administrées, étapes de l'intervention, mesures, parcours dans les unités de soins, ...) enregistrées par les applications sources. Des données agrégées ont été calculées et ont permis de mener deux études recherche clinique. La première étude a permis de mettre en évidence un lien statistique entre l'hypotension liée à l'induction de l'anesthésie et le devenir du patient. Des facteurs prédictifs de cette hypotension ont également étaient établis. La seconde étude a évalué le respect d'indicateurs de ventilation du patient et l'impact sur les comorbidités du système respiratoire.Discussion The data warehouse L'entrepôt de données développé dans le cadre de ce travail, et les méthodes d'intégration et de nettoyage de données mises en places permettent de conduire des analyses statistiques rétrospectives sur plus de 200 000 interventions. Le système pourra être étendu à d'autres systèmes sources au sein du CHRU de Lille mais également aux feuilles d'anesthésie utilisées par d'autres structures de soins
Introduction Hospital Information Systems (HIS) manage and register every day millions of data related to patient care: biological results, vital signs, drugs administrations, care process... These data are stored by operational applications provide remote access and a comprehensive picture of Electronic Health Record. These data may also be used to answer to others purposes as clinical research or public health, particularly when integrated in a data warehouse. Some studies highlighted a statistical link between the compliance of quality indicators related to anesthesia procedure and patient outcome during the hospital stay. In the University Hospital of Lille, the quality indicators, as well as the patient comorbidities during the post-operative period could be assessed with data collected by applications of the HIS. The main objective of the work is to integrate data collected by operational applications in order to realize clinical research studies.Methods First, the data quality of information registered by the operational applications is evaluated with methods … by the literature or developed in this work. Then, data quality problems highlighted by the evaluation are managed during the integration step of the ETL process. New data are computed and aggregated in order to dispose of indicators of quality of care. Finally, two studies bring out the usability of the system.Results Pertinent data from the HIS have been integrated in an anesthesia data warehouse. This system stores data about the hospital stay and interventions (drug administrations, vital signs …) since 2010. Aggregated data have been developed and used in two clinical research studies. The first study highlighted statistical link between the induction and patient outcome. The second study evaluated the compliance of quality indicators of ventilation and the impact on comorbity.Discussion The data warehouse and the cleaning and integration methods developed as part of this work allow performing statistical analysis on more than 200 000 interventions. This system can be implemented with other applications used in the CHRU of Lille but also with Anesthesia Information Management Systems used by other hospitals
APA, Harvard, Vancouver, ISO, and other styles
15

Azzi, Rita. "Blockchain Adoption in Healthcare : Toward a Patient Centric Ecosystem." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT053.

Full text
Abstract:
L'écosystème de soins de santé évolue constamment, sous l'influence des avancées technologiques qui l'ont orienté vers des approches centrées sur le patient. Toutefois, cette transformation est associée à de nombreux défis en raison de la complexité inhérente et de la fragmentation du système de santé. Cette thèse présente une problématique à trois niveaux. Chaque niveau traite un défi de l'écosystème de soins de santé ayant une répercussion sur la santé des patients ou portant atteinte à leurs vies privées. Le premier défi abordé est celui des médicaments contrefaits ou falsifiés qui représentent une menace pour la santé publique. Le deuxième défi concerne la fragmentation des données de santé qui entrave la coordination des soins et nuit à l'efficacité clinique. Le troisième défi s'attaque à la confidentialité des données relatives aux patients, impliquant aussi la protection de leurs vies privées.La blockchain apparait comme une technologie prometteuse, capable de relever ces différents défis. Introduite dans l'écosystème de santé, la blockchain a le potentiel de renforcer la transparence, l'authentification, la sécurité et la fiabilité. Néanmoins, cette technologie s'accompagne également de son lot de défis. Cette thèse évalue les risques et opportunités liés à l'adoption de la blockchain dans l'écosystème de soins de santé. Nous commençons par une étude approfondie sur le rôle de la blockchain à améliorer la gestion de la chaîne d'approvisionnement et de la chaîne de prestation de soins de santé. Pour compléter cette approche théorique, nous intégrons des applications concrètes du monde réel afin d'élaborer les exigences nécessaires à établir une chaine d'approvisionnement basée sur la blockchain. Notre troisième contribution, présente une approche axée sur le patient, où nous combinons la technologie blockchain et les technologies du Web sémantique pour aider les patients à gérer leurs données de santé. Notre quatrième contribution s'inscrit dans le cadre de la gouvernance des données. Nous développons un Framework basé sur la blockchain pour améliorer la sécurité des données et qui par la suite pourra être adopter dans divers domaines
The healthcare sector evolves constantly, driven by technological advancement and innovative solutions. From remote patient monitoring to the Internet of Things (IoT), Artificial Intelligence (AI), personalized medicine, mobile health, and electronic records systems, technology has improved patient outcomes and enhanced care delivery. These technologies have shifted the healthcare ecosystem to be more patient-centered, focusing on meeting the patient's needs rather than the needs of the individual organizations within it. However, this transformative shift experienced by the healthcare industry is associated with multiple challenges due to the inherent complexity and fragmentation of the healthcare ecosystem. This dissertation addresses three healthcare ecosystem challenges that significantly impact patients. The first challenge addressed is the problem of counterfeit or falsified drugs that represent a threat to public health, resulting from the vulnerabilities in the pharmaceutical supply chain, notably centralized data management and the lack of transparency. The second challenge addressed is the problem of healthcare data fragmentation that thwarts care coordination and impacts clinical efficiency. This problem results from the dynamic and complex patients' journey in the healthcare system, shaped by their unique health needs and preferences. Patient data are scattered across multiple healthcare organizations within centralized databases and are ruled by policies that hinder data sharing and patients' empowerment over their data. The third challenge addressed is the confidentiality and privacy of healthcare data that, if compromised, shatter the trust relationship between patients and healthcare stakeholders. This challenge results from the healthcare organizations' poor data governance that increases the risk of data breaches and unauthorized access to patient information.The blockchain has emerged as a promising solution to address these critical challenges. It was introduced into the healthcare ecosystem with the promise of enforcing transparency, authentication, security, and trustworthiness. Through comprehensive analysis and case studies, this dissertation assesses the opportunities and addresses the challenges of adopting the blockchain in the healthcare industry. We start with a thorough review of the state of the art covering the blockchain's role in improving supply chain management and enhancing the healthcare delivery chain. Second, we combine theoretical and real-world application studies to develop a guideline that outlines the requirements for building a blockchain-based supply chain. Third, we propose a patient-centric framework that combines blockchain technology with Semantic technologies to help patients manage their health data. Our fourth contribution presents a novel approach to data governance by developing a blockchain-based framework that improves data security and empowers patients to participate actively in their healthcare decisions. In this final contribution, we widen the scope of the proposed framework to include a roadmap for its adoption across diverse domains (banking, education, transportation, and logistics, etc.)
APA, Harvard, Vancouver, ISO, and other styles
16

Gaignard, Alban. "Distributed knowledge sharing and production through collaborative e-Science platforms." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00838796.

Full text
Abstract:
This thesis addresses the issues of coherent distributed knowledge production and sharing in the Life-science area. In spite of the continuously increasing computing and storage capabilities of computing infrastructures, the management of massive scientific data through centralized approaches became inappropriate, for several reasons: (i) they do not guarantee the autonomy property of data providers, constrained, for either ethical or legal concerns, to keep the control over the data they host, (ii) they do not scale and adapt to the massive scientific data produced through e-Science platforms. In the context of the NeuroLOG and VIP Life-science collaborative platforms, we address on one hand, distribution and heterogeneity issues underlying, possibly sensitive, resource sharing ; and on the other hand, automated knowledge production through the usage of these e-Science platforms, to ease the exploitation of the massively produced scientific data. We rely on an ontological approach for knowledge modeling and propose, based on Semantic Web technologies, to (i) extend these platforms with efficient, static and dynamic, transparent federated semantic querying strategies, and (ii) to extend their data processing environment, from both provenance information captured at run-time and domain-specific inference rules, to automate the semantic annotation of ''in silico'' experiment results. The results of this thesis have been evaluated on the Grid'5000 distributed and controlled infrastructure. They contribute to addressing three of the main challenging issues faced in the area of computational science platforms through (i) a model for secured collaborations and a distributed access control strategy allowing for the setup of multi-centric studies while still considering competitive activities, (ii) semantic experiment summaries, meaningful from the end-user perspective, aimed at easing the navigation into massive scientific data resulting from large-scale experimental campaigns, and (iii) efficient distributed querying and reasoning strategies, relying on Semantic Web standards, aimed at sharing capitalized knowledge and providing connectivity towards the Web of Linked Data.
APA, Harvard, Vancouver, ISO, and other styles
17

Laanani, Moussa. "Étude des relations entre l’état de santé, sa prise en charge et le décès par suicide à partir du Système national des données de santé Contacts with Health Services During the Year Prior to Suicide Death andPrevalent Conditions A Nationwide Study Collider and Reporting Biases Involved in the Analyses of Cause of Death Associations in Death Certificates: an Illustration with Cancer and Suicide." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASR016.

Full text
Abstract:
Le suicide représente un problème de santé publique majeur en France avec près de 10 000 décès prématurés chaque année. L'étude des déterminants du suicide est complexe. Il s'agit d’un phénomène plurifactoriel, pouvant être influencé par des éléments personnels et/ou environnementaux, bio-médicaux et/ou socio-économiques. La présence de pathologies (psychiatriques ou somatiques) chez l'individu joue un rôle important. Les pathologies psychiatriques peuvent se compliquer de processus suicidaires (idées suicidaires, pouvant être suivies de comportements suicidaires, puis d'un décès par suicide). Pour les pathologies somatiques, la maladie peut impacter de manière importante la qualité de vie de l'individu, favorisant des processus suicidaires, et ainsi des décès par suicide. Des troubles psychiatriques peuvent ainsi compliquer les maladies somatiques, et constituer une étape vers la survenue de processus suicidaires. Les maladies somatiques peuvent également survenir chez des individus souffrant de troubles psychiatriques, et favoriser le déclenchement de processus suicidaires. Pour les pathologies psychiatriques comme somatiques, les processus suicidaires peuvent également être la conséquence d'effets indésirables des traitements médicamenteux. Il est alors souvent difficile de dénouer le rôle du traitement et de la pathologie traitée. Ce travail de thèse visait à étudier les relations complexes entre pathologies et suicide, à partir des données du Système national des données de santé (SNDS)
Suicide is a major public health problem in France, with nearly 10,000 premature deaths each year. Studying the determinants of suicide is complex. It is a multi-factorial phenomenon, which can be influenced by personal and/or environmental, biomedical and/or socio-economic factors. The presence of diseases (psychiatric or physical) in the individual plays an important role. Psychiatric pathologies can be complicated by suicidal processes (suicidal ideation, which may be followed by suicidal behaviour and then death by suicide). For physical diseases, the disease can have a significant impact on the quality of life of the individual, favouring suicidal processes, and thus death by suicide. Psychiatric disorders can thus worsen physical illnesses and be a step towards the occurrence of suicidal processes. Physical diseases can also occur in individuals suffering from psychiatric disorders, and can trigger suicidal processes. For both psychiatric and physical diseases, suicidal processes can also be the consequence of adverse effects of drug treatments. In such cases, it is often difficult to disentangle the role of the treatment and that of the pathology being treated. The aim of this thesis was to study the complex relationships between diseases and suicide death, using data from the French National Health Data System (SNDS)
APA, Harvard, Vancouver, ISO, and other styles
18

Retornaz, Frédérique. "Evaluation gériatrique et dépistage de la vulnérabilité chez les patients âgés atteints de cancer : limites et enjeux." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX20667.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Gaignard, Alban. "Partage et production de connaissances distribuées dans des plateformes scientifiques collaboratives." Phd thesis, Université de Nice Sophia-Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00827926.

Full text
Abstract:
Cette thèse s'intéresse à la production et au partage cohérent de connaissances distribuées dans le domaine des sciences de la vie. Malgré l'augmentation constante des capacités de stockage et de calcul des infrastructures informatiques, les approches centralisées pour la gestion de grandes masses de données scientifiques multi-sources deviennent inadaptées pour plusieurs raisons: (i) elles ne garantissent pas l'autonomie des fournisseurs de données qui doivent conserver un certain contrôle sur les don- nées hébergées pour des raisons éthiques et/ou juridiques, (ii) elles ne permettent pas d'envisager le passage à l'échelle des plateformes en sciences computationnelles qui sont la source de productions massives de données scientifiques. Nous nous intéressons, dans le contexte des plateformes collaboratives en sci- ences de la vie NeuroLOG et VIP, d'une part, aux problématiques de distribution et d'hétérogénéité sous-jacentes au partage de ressources, potentiellement sensibles ; et d'autre part, à la production automatique de connaissances au cours de l'usage de ces plateformes, afin de faciliter l'exploitation de la masse de données produites. Nous nous appuyons sur une approche ontologique pour la modélisation des connaissances et pro- posons à partir des technologies du web sémantique (i) d'étendre ces plateformes avec des stratégies efficaces, statiques et dynamiques, d'interrogations sémantiques fédérées et (ii) d'étendre leur environnent de traitement de données pour automatiser l'annotation sémantique des résultats d'expérience "in silico", à partir de la capture d'informations de provenance à l'exécution et de règles d'inférence spécifiques au domaine. Les résultats de cette thèse, évalués sur l'infrastructure distribuée et contrôlée Grid'5000, apportent des éléments de réponse à trois enjeux majeurs des plateformes collaboratives en sciences computationnelles : (i) un modèle de collaborations sécurisées et une stratégie de contrôle d'accès distribué pour permettre la mise en place d'études multi-centriques dans un environnement compétitif, (ii) des résumés sémantiques d'expérience qui font sens pour l'utilisateur pour faciliter la navigation dans la masse de données produites lors de campagnes expérimentales, et (iii) des stratégies efficaces d'interrogation et de raisonnement fédérés, via les standards du Web Sémantique, pour partager les connaissances capitalisées dans ces plateformes et les ouvrir potentiellement sur le Web de données.
APA, Harvard, Vancouver, ISO, and other styles
20

Berger, Ludovic. "Modélisation de l'activité en chirurgie vasculaire." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX20729/document.

Full text
Abstract:
La question du remplacement des chirurgiens vasculaires pour les années à venir est préoccupante du fait d’un grand nombre de départs en retraite. Mais la question du seul remplacement des effectifs ne suffit pas pour une spécialité qui s’adresse principalement à des patients âgés dans le contexte actuel d’augmentation et de vieillissement de la population française.Dans le but de répondre aux besoins en chirurgie vasculaire dans les années futures, nous avons dans un premier temps réalisé un état des lieux de la démographie des praticiens de la spécialité et estimé la cinétique des départs en retraite des prochaines années.Pour pouvoir tenir compte de l’évolution de la future activité, nous avons établi un modèle prédictif de cette activité concernant les actes de chirurgie carotidienne, de chirurgie des anévrysmes de l’aorte abdominale sous-rénale et de chirurgie des artères sous-inguinales, d’après le seul vieillissement de la population. Ce modèle applique les méthodes de l’INSEE aux actes recueillis dans le Programme Médicalisé des Systèmes d’Information. Nous l’avons ensuite affiné par l’intégration d’autres paramètres influençant l’évolution de l’activité grâce au calcul et à l’application d’un coefficient de pondération obtenu sur la période d’activité de 2000 à 2008. D’après le modèle, l’activité entre 2008 et 2030 augmentera de 38% sur les segments étudiés.Les projections pondérées permettent de prédire une augmentation de l’activité de 30% entre 2011 et 2025. D’un point de vue purement mathématique, les besoins de formation seraient de 120 chirurgiens pour le remplacement des départs en retraite, et de 59 chirurgiens supplémentaires du fait de l’augmentation de l’activité
The question of replacement of vascular surgeons for the future is of concern because of a large number of retirements. But the question of replacement only is not sufficient for a specialty that is primarily for older patients in the current context of increasing and aging of the French population.In order to meet the need for vascular surgery in the coming years, we initially performed an overview of the demographics of practitioners of the specialty and estimated the retirements. To take into account the evolution of the future activity, we have established a predictive model for the acts of carotid surgery, surgery of infrarenal abdominal aortic aneurysms and surgery of peripheral arterial disease, according to the aging population. This model applies the methods of the INSEE for acts collected in the Medicalised Information System Program database.We then refined it by including other parameters modifying workload evolution. We have calculated and applied a weighting factor obtained during the period of activity from 2000 to 2008. According to the model, the activity between 2008 and 2030 will increase by 38% in the studied procedures.The weighted projections predict an acts’ increase 30% between 2011 and 2025.From a purely mathematical point of view, the training needs of 120 surgeons would be to replace retirements, and 59 more surgeons because of the increased workload
APA, Harvard, Vancouver, ISO, and other styles
21

Jaffré, Marc-Olivier. "Connaissance et optimisation de la prise en charge des patients : la science des réseaux appliquée aux parcours de soins." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2445/document.

Full text
Abstract:
En France, la nécessaire rationalisation des moyens alloués aux hôpitaux a abouti à une concentration des ressources et une augmentation de la complexité des plateaux techniques. Leur pilotage et leur répartition territoriale s’avèrent d’autant plus difficile, soulevant ainsi la problématique de l’optimisation des systèmes de soins. L’utilisation des données massives produites pas ces systèmes pourrait constituer une nouvelle approche en matière d’analyse et d’aide à la décision. Méthode : A partir d’une réflexion sur la notion de performance, différentes approches d’optimisation préexistantes sont d’abord mis en évidence. Le bloc opératoire a été choisi en tant que terrain expérimental. Suit une analyse sur une fusion d’établissements en tant qu’exemple d’une approche d’optimisation par massification.Ces deux étapes permettent de défendre une approche alternative qui associe l’usage de données massives, la science des réseaux et la visualisation des données sous forme cartographique. Deux sets de séjours en chirurgie orthopédique sur la région ex-Midi-Pyrénées sont utilisés. L’enchainement des séjours de soins est considéré en tant en réseau de données. L’ensemble est projeté dans un environnement visuel développé en JavaScript et permettant une fouille dynamique du graphe. Résultats : La possibilité de visualiser des parcours de santé sous forme de graphes NŒUDS-LIENS est démontrée. Les graphes apportent une perception supplémentaire sur les enchainements de séjours et les redondances des parcours. Le caractère dynamique des graphes permet en outre leur fouille. L’approche visuelle subjective est complétée par une série de mesures objectives issues de la science des réseaux. Les plateaux techniques de soins produisent des données massives utiles à leur analyse et potentiellement à leur optimisation. La visualisation graphique de ces données associées à un cadre d’analyse tel que la science des réseaux donne des premiers indicateurs positifs avec notamment la mise en évidence de motifs redondants. La poursuite d’expérimentations à plus large échelle est requise pour valider, renforcer et diffuser ces observations et cette méthode
In France, the streamlining of means assigned hospitals result in concentration of resources ana growing complexily of heallhcare facilities. Piloting and planning (them turn out to be all the more difficult, thus leading of optimjzation problems. The use of massive data produced by these systems in association with network science an alternative approach for analyzing and improving decision-making support jn healthcare. Method : Various preexisting optimisation are first highblighted based on observations in operating theaters chosen as experirnentai sites. An analysis of merger of two hospitlas also follows as an example of an optimization method by massification. These two steps make it possible to defend an alternative approach that combines the use of big data science of networks data visualization techniques. Two sets of patient data in orthopedic surgery in the ex-Midi-Pyrénées region in France are used to create a network of all sequences of care. The whole is displayed in a visual environment developed in JavaScript allowing a dynamic mining of the graph. Results: Visualizing healthcare sequences in the form of nodes and links graphs has been sel out. The graphs provide an additional perception of' the redundancies of he healthcare pathways. The dynamic character of the graphs also allows their direct rnining. The initial visual approach is supplernented by a series of objcctive measures from the science of networks. Conciusion: Healthcare facilities produce massive data valuable for their analysis and optimization. Data visualizalion together with a framework such as network science gives prelimiaary encouraging indicators uncovering redondant healthcare pathway patterns. Furthev experimentations with various and larger sets of data is required to validate and strengthen these observations and methods
APA, Harvard, Vancouver, ISO, and other styles
22

Bacelar-Nicolau, Leonor. "Health Impact Assessment : Quantifying and Modeling to Better Decide." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1151/document.

Full text
Abstract:
L’Évaluation d’Impact sur la Santé (EIS) est un instrument de support à la décision, pour juger une politique quant aux effets potentiels sur la santé et leur distribution (équité). C’est encore souvent une approche qualitative.L’objectif principal est de montrer l’utilité de méthodologies statistiques quantitatives multivariées pour enrichir la pratique d’EIS, améliorant la compréhension des résultats par des professionnels non-statisticiens.Les futures réformes des systèmes de santé déplacent le centre d’évaluation des services de santé des fournisseurs aux citoyens (besoins, préférences, équité d’accès aux gains de santé), exploitant big data associant information de soins aux données sociales, économiques et de déterminants de santé. Des méthodologies statistiques et d’évaluation innovantes sont nécessaires à cette transformation.Les méthodes de data mining et data science, souvent complexes, peuvent gérer des résultats graphiques compréhensibles pour amplifier l’usage d’EIS, qui deviendrait ainsi un outil précieux d’évaluation de politiques publiques pour amener les citoyens au centre de la prise de décision
Health Impact Assessment (HIA) is a decision-making support tool to judge a policy as to its potential effects and its distribution on a population’s health (equity). It’s still very often a qualitative approach.The main aim here is to show the usefulness of applying quantified multivariate statistical methodologies to enrich HIA practice, while making the decision-making process easier, by issuing understandable outputs even for non-statisticians.The future of healthcare reforms shifts the center of evaluation of health systems from providers to people’s individual needs and preferences, reducing health inequities in access and health outcomes, using big data linking information from providers to social and economic health determinants. Innovative statistical and assessment methodologies are needed to make this transformation.Data mining and data science methods, however complex, may lead to graphical outputs simple to understand by decision makers. HIA is thus a valuable tool to assure public policies are indeed evaluated while considering health determinants and equity and bringing citizens to the center of the decision-making process
A Avaliação de Impacte na Saúde (AIS) é um instrumento de suporte à decisão para julgar política quanto aos seus efeitos potenciais e à sua distribuição na saúde de uma população (equidade). É geralmente ainda uma abordagem qualitativa.O principal objetivo é mostrar a utilidade das metodologias estatísticas quantitativas e multivariadas para enriquecer a prática de AIS, melhorando a compreensão dos resultados por profissionais não-estatísticos.As futuras reformas dos sistemas de saúde deslocam o centro da avaliação dos serviços de saúde dos prestadores para as necessidades e preferências dos cidadãos, reduzindo iniquidades no acesso à saúde e ganhos em saúde, usando big data que associam informação de prestadores a dados sociais e económicos de determinantes de saúde. São necessárias metodologias estatísticas e de avaliação inovadoras para esta transformação.Métodos de data mining e data science, mesmo complexos, podem gerar resultados gráficos compreensíveis para os decisores. A AIS é assim uma ferramenta valiosa para avaliar políticas públicas considerando determinantes de saúde, equidade e trazendo os cidadãos para o centro da tomada de decisão
APA, Harvard, Vancouver, ISO, and other styles
23

Partlová, Hana. "Conformité du traitement pharmacologique de la dépression aux guides de pratique clinique et impact sur les coûts des services de soins de santé." Thèse, 2004. http://hdl.handle.net/1866/17695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Poitras, Stéphane. "Pratiques cliniques des physiothérapeutes dans le traitement de travailleurs souffrant de maux de dos aigus ou subaigus." Thèse, 2005. http://hdl.handle.net/1866/17754.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Dufour, Émilie. "Mesure et validation d'indicateurs de performance des services infirmiers en première ligne : utilisation d'un cas traceur en soins de plaies." Thèse, 2017. http://hdl.handle.net/1866/19450.

Full text
Abstract:
Une meilleure utilisation des ressources infirmières représente une avenue prometteuse dans l’amélioration de la performance des services de première ligne. La mesure de la performance des services infirmiers constitue une composante centrale à l’amélioration de leur organisation et à la qualité des soins dispensés dans ce secteur d’activités. Le but de cette recherche était de mesurer et de valider des indicateurs de performance des services infirmiers en première ligne à partir d’un cas traceur en soins de plaies ainsi que d’évaluer la fiabilité des données clinico-administratives utilisées pour mesurer les indicateurs à partir des dossiers cliniques. Cette étude a adopté un devis longitudinal corrélationnel. Les données ont été collectées sur une période d’une année dans un service de soins courants d’un Centre local de services communautaires (CLSC) à partir de données clinico-administratives contenues dans le système informatique I-CLSC. L’épisode de soins constituait l’unité d’analyse. Huit indicateurs ont été mesurés, dont cinq indicateurs de processus : 1) le suivi infirmier; 2) la continuité relationnelle; 3) l’enseignement; 4) l’évaluation initiale; et 5) la rencontre avec une infirmière spécialisée en soins de plaies, et trois indicateurs de résultats : 1) la fréquence; 2) la durée; et 3) l’intensité du suivi. Les objectifs de mesure et de validation ont été réalisés à partir d’un échantillon de 482 épisodes de soins de plaies d’une durée supérieure à sept jours. L’étude de fiabilité a été réalisée à partir d’un sous-échantillon de 107 épisodes. Des analyses descriptives et corrélationnelles ont été réalisées. Les résultats de validation ont démontré des associations fortes statistiquement significatives entre les indicateurs de suivi infirmier et de continuité et les trois indicateurs de résultats. Les résultats de fiabilité ont démontré un haut taux de concordance entre les données contenues dans les dossiers cliniques et les données clinico-administratives pour six des huit indicateurs à l’étude. En conclusion, des indicateurs de processus valides et pertinents dans la pratique infirmière de première ligne peuvent être mesurés de façon régulière par les gestionnaires à partir de données clinico-administratives fiables et facilement accessibles.
Better use of nursing resources is a promising avenue for improving the performance of primary care services. Measuring the performance of nursing services is a central component in improving their organization and the quality of care delivered in this sector. The aim of this study was to measure and validate primary care nursing performance indicators from a tracer case in wound care and to assess the reliability of clinical-administrative data used to measure indicators from clinical records. This study adopted a correlational longitudinal design. Data were collected over a one-year period in a Local community services centre (CLSC) using clinical-administrative data contained in the I-CLSC electronic database. The episode of care was the unit of analysis. Eight indicators were measured, including five process indicators: 1) nursing follow-up; 2) relational continuity; 3) teaching; 4) initial assessment; and 5) consultation with a specialized nurse, and three outcome indicators: 1) frequency; 2) duration; and 3) intensity. Measurement and validation objectives were performed using a sample of 482 episodes of wound care lasting more than seven days. The reliability study was based on a sub-sample of 107 episodes. Descriptive and correlational analyzes were performed. Validation results demonstrated very strong associations between nursing follow-up and continuity indicators and the three outcome indicators. Reliability results demonstrated a high concordance between clinical records and clinical-administrative data for six of the eight indicators. In conclusion, valid and relevant process indicators in primary care nursing can be measured on a regular basis by managers using reliable and easily accessible clinical-administrative data.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography