Academic literature on the topic 'Entrepôts de données – Médecine'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Entrepôts de données – Médecine.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Entrepôts de données – Médecine"

1

Piarroux, R., F. Batteux, S. Rebaudet, and P. Y. Boelle. "Les indicateurs d’alerte et de surveillance de la Covid-19." Annales françaises de médecine d’urgence 10, no. 4-5 (September 2020): 333–39. http://dx.doi.org/10.3166/afmu-2020-0277.

Full text
Abstract:
Face à la crise sanitaire provoquée par la pandémie de Covid-19 en France, Santé publique France a mis en place un système de surveillance évolutif fondé sur des définitions de cas possible, probable et confirmé. Le décompte quotidien se limite cependant aux cas confirmés par reverse transcriptase polymerase chain reaction ou sérologie SARS-CoV-2 (actuellement via la plateforme SI-DEP), aux cas hospitalisés (via le Système d’information pour le suivi des victimes d’attentats) et aux décès hospitaliers par Covid-19. Ce suivi de la circulation virale est forcément non exhaustif, et l’estimation de l’incidence est complétée par d’autres indicateurs comme les appels au 15, les recours à SOS Médecins, les passages dans les services d’accueil des urgences, les consultations de médecine de ville via le réseau Sentinelle. Le suivi de la mortalité non hospitalière s’est heurté aux délais de transmission des certificats de décès et au manque de diagnostic fiable. Seule la létalité hospitalière a pu être mesurée de manière fiable. Moyennant un certain nombre de précautions statistiques et d’hypothèses de travail, les modèles ont permis d’anticiper l’évolution de l’épidémie à partir de deux indicateurs essentiels : le ratio de reproduction R et le temps de doublement épidémique. En Île-de-France, l’Assistance publique– Hôpitaux de Paris a complété ce tableau de bord grâce à son entrepôt de données de santé et a ainsi pu modéliser de manière fine le parcours de soins des patients. L’ensemble de ces indicateurs a été essentiel pour assurer une planification de la réponse à la crise.
APA, Harvard, Vancouver, ISO, and other styles
2

Bellakhdar, Jamal. "Le naskaphthon de Dioscoride et le bunk de la médecine arabo-islamique, un seul et même simple. Partie I : étude analytique des textes anciens pour un essai de détermination." Revue d'histoire de la pharmacie 108, no. 412 (2021): 509–26. http://dx.doi.org/10.3406/pharm.2021.24479.

Full text
Abstract:
Le naskaphthon de Dioscoride et le bunk de la médecine arabo-islamique, un seul et même simple. Partie I : étude analytique des textes anciens pour un essai de détermination – En nous basant sur l’analyse des descriptions relatives au bunk recueillies dans des écrits arabo-islamiques de différentes époques et en comparant celles-ci à ce que nous savons des substances aromatiques naturelles qui circulaient autrefois dans l’Ancien Monde, nous avons tenté d’élucider la nature énigmatique de ce simple aromatique pour lequel une identité franche et nette n’avait jamais été posée jusque-là. Cet examen comparatif, entrepris au plus près des textes anciens nous a permis d’avancer une proposition mettant un nom sur la nature de ce bunk, en accord avec les différentes indications que nous ont données les auteurs anciens. En parvenant ainsi à définir la nature de ce simple aromatique, nous avons du même coup avancé dans la connaissance de ce qu’a pu être le naskaphthon de Dioscoride, dont les auteurs arabes les plus anciens ont fait leur bunk, alors que les sources grecques, latines et occidentales médiévales ou post médiévales n’ont rien apporté de convaincant à son sujet. Faisant suite à cette première partie, une seconde partie (à paraître dans la prochaine livraison de cette revue) décrira une observation ethnobotanique que nous avons faite dans le Grand Sud marocain et qui semble bien être une survivance du bunk/ naskaphthon, permettant ainsi de proposer une identité à ce produit.
APA, Harvard, Vancouver, ISO, and other styles
3

Pitarch, Yoann, Cécile Favre, Anne Laurent, and Pascal Poncelet. "Généralisation contextuelle de mesures dans les entrepôts de données. Application aux entrepôts de données médicales." Ingénierie des systèmes d'information 16, no. 6 (December 30, 2011): 67–90. http://dx.doi.org/10.3166/isi.16.6.67-90.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Schöpfel, Joachim. "Éditorialisation des données de recherche : le rôle des professionnels de l’information." I2D - Information, données & documents 2, no. 2 (November 17, 2020): 82–84. http://dx.doi.org/10.3917/i2d.202.0082.

Full text
Abstract:
L’éditorialisation des données de la recherche est un enjeu majeur de la communication scientifique. Si le regard des chercheurs reste primordial, les professionnels de l’information, impliqués dans la gestion des infrastructures de recherche, des plateformes et des entrepôts de données, contribuent largement à la structuration et à la visibilité de ces données. Zoom sur un exemple représentatif : les articles de données ( data papers ).
APA, Harvard, Vancouver, ISO, and other styles
5

Garcelon, N. "Des données médicales à la connaissance : entrepôts et fouilles de données." Annales de Dermatologie et de Vénéréologie 142, no. 12 (December 2015): S389—S390. http://dx.doi.org/10.1016/j.annder.2015.10.171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Herbert, J., C. Salpetrier, L. Godillon, F. Fourquet, E. Laurent, and L. Grammatico-Guillon. "Entrepôts de données cliniques, outil du pilotage de crise." Revue d'Épidémiologie et de Santé Publique 70 (March 2022): S8. http://dx.doi.org/10.1016/j.respe.2022.01.069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bouattour, Soumia, Omar Boussaid, Hanene Ben Abdallah, and Jamel Feki. "Modélisation et analyse dans les entrepôts de données actifs." Techniques et sciences informatiques 30, no. 8 (October 28, 2011): 975–94. http://dx.doi.org/10.3166/tsi.30.975-994.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bimonte, Sandro. "Des entrepôts de données, l’analyse en ligne et l’information géographique." Journal of Decision Systems 17, no. 4 (January 2008): 463–86. http://dx.doi.org/10.3166/jds.17.463-486.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bimonte, Sandro, and François Pinet. "Conception des entrepôts de données: de l’implémentation à la restitution." Journal of Decision Systems 21, no. 1 (January 2012): 1–2. http://dx.doi.org/10.1080/12460125.2012.678677.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Riou, C., M. Cuggia, and N. Garcelon. "Comment assurer la confidentialité dans les entrepôts de données biomédicaux ?" Revue d'Épidémiologie et de Santé Publique 60 (March 2012): S19—S20. http://dx.doi.org/10.1016/j.respe.2011.12.116.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Entrepôts de données – Médecine"

1

Assele, Kama Ariane. "Interopérabilité sémantique et entreposage de données cliniques." Paris 6, 2013. http://www.theses.fr/2013PA066359.

Full text
Abstract:
En médecine, les entrepôts de données permettent d’intégrer diverses sources de données à des fins d'analyses décisionnelles. Les données intégrées proviennent de sources souvent réparties et hétérogènes, dans le but de fournir une vue globale de l’information aux analystes et aux décideurs. L’entreposage de données en santé à des fins d’analyses décisionnelles pose la problématique de représentation des connaissances médicales en constante évolution, nécessitant l’utilisation de nouvelles méthodologies pour intégrer la dimension sémantique du domaine à analyser. La difficulté d’entreposage est liée à la complexité du domaine à décrire et à modéliser, mais surtout, au besoin d’associer la connaissance du domaine aux données. De ce fait, une des problématiques de recherche dans le domaine des entrepôts de données concerne la cohabitation de la connaissance et des données, et le rôle des ontologies dans la modélisation d'un entrepôt de données, l’intégration et l'exploitation des données. Ce travail de thèse, réalisé dans un laboratoire de recherche INSERM spécialisé en ingénierie des connaissances en santé (UMRS 872 EQ20), s’inscrit dans la problématique de modélisation, de partage et d’exploitation de données cliniques au sein d’une plateforme d’interopérabilité sémantique. Pour répondre à cette problématique, nous soutenons la thèse que : (i) l’intégration d’un modèle d’information normalisé avec un modèle de connaissance permet de mettre en oeuvre des entrepôts de données sémantiques dans le but d’optimiser l’exploitation des données; (ii) l’utilisation de ressources terminologiques et ontologiques aide à l’interconnexion de ressources distribuées et hétérogènes; (iii) la représentation des données impacte son exploitation et contribue à l’optimisation des systèmes décisionnels (ex. Outils de monitoring). En utilisant des méthodes et des outils innovants issus du Web Sémantique, nous avons optimisé l’intégration et l’exploitation de données cliniques pour la mise en œuvre d’un système de monitoring pour l’évaluation de l’évolution de la résistance bactérienne aux antibiotiques en Europe. Dans un premier temps, nous avons défini le modèle multidimensionnel d’un entrepôt de données sémantique, basé sur les standards existants tels que HL7. Nous avons par la suite, articulé ces données avec les connaissances du domaine des maladies infectieuses. Pour cela, nous avons représenté les données à travers leur structure, leur vocabulaire et leur sémantique, dans une ontologie dite « ontologie de définition de données », pour les aligner à l’ontologie de domaine via des règles de mapping. Nous avons proposé une méthode de génération semi-automatique de « l’ontologie de définition de données », à partir du schéma de la base de données, en nous appuyant sur des outils et résultats de projets existants. Enfin, l’entrepôt de données et les ressources sémantiques sont accessibles et exploités via un système d’interopérabilité sémantique développé dans le cadre du projet européen DebugIT et que nous avons expérimenté au sein de l'Hôpital européen Georges Pompidou
In medicine, data warehouses allow to integrate various data sources for decisional analysis. The integrated data often come from distributed and heterogeneous sources, in order to provide an overview of information to analysts and deciders. The clinical data warehousing raises the issue of medical knowledge representation constantly evolving, requiring the use of new methodologies to integrate the semantic dimension of the study domain. The storage problem is related to the complexity of the field to describe and model, but more importantly, to the need to combine domain knowledge with data. Therefore, one of the research topics in the field of data warehouses is about the cohabitation of knowledge and data, and the role of ontologies in data warehouse modeling, data integration and data mining. This work, carried out in an INSERM research laboratory specialized in knowledge health engineering (UMRS 872 EQ20), is part of issue on modeling, sharing and clinical data use, within a semantic interoperability platform. To address this issue, we support the thesis that: (i) the integration of a standardized information model with a knowledge model allows to implement semantic data warehouses in order to optimize the data use; (ii) the use of terminological and ontological resources aids the interconnection of distributed and heterogeneous resources; (iii) data representation impact its exploitation and helps to optimization of decision support systems (e. G. Monitoring tools). Using innovative methods and Semantic Web tools, we have optimized the integration and exploitation of clinical data for the implementation of a monitoring system to assess the evolution of bacterial resistance to antibiotics in Europe. As a first step, we defined the multidimensional model of a semantic data warehouse based on existing standards such as HL7. We subsequently articulated these data with domain knowledge of infectious diseases. For this, we have represented the data across their structure, vocabulary and semantics in an ontology called « data definition ontology », to map data to the domain ontology via mapping rules. We proposed a method for semi-automatic generation of « data definition ontology » from a database schema, using existing tools and projects results. Finally, the data warehouse and semantic resources are accessed and used via a semantic interoperability system developed in the framework of the DebugIT European project (Detecting and Eliminating Bacteria UsinG Information Technology), that we have experimented within the G. Pompidou university hospital (HEGP, France)
APA, Harvard, Vancouver, ISO, and other styles
2

Loizillon, Sophie. "Deep learning for automatic quality control and computer-aided diagnosis in neuroimaging using a large-scale clinical data warehouse." Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS258.pdf.

Full text
Abstract:
La prise en charge des patients dans les hôpitaux génère quotidiennement des données de santé essentielles pour que les médecins assurent les meilleurs soins possibles aux patients. Au cours de la dernière décennie, l'émergence des entrepôts de données de santé (EDS) a révolutionné l'exploitation des données de routine clinique à des fins de recherche. En rassemblant les données médicales issues du soin courant (dossiers médicaux électroniques, imagerie, tests de pathologie et de laboratoireldots), les EDS offrent une opportunité unique pour la recherche. L'accès à ces vastes ensembles de données cliniques constitue un avantage majeur pour le développement et le déploiement de modèles d'intelligence artificielle en routine clinique. Les outils d'IA d'aide au diagnostic sont souvent limités aux données de recherche qui sélectionnent des patients répondant à des critères d'inclusion stricts et où les images sont acquises dans le cadre de protocoles de recherche standardisés. Ces conditions diffèrent grandement de la réalité clinique et empêchent la bonne généralisation de ces outils dans la pratique clinique. Cette thèse explore des techniques de contrôle qualité automatique pour faciliter l'utilisation de données de neuroimagerie d'entrepôts de données de santé à des fins de recherche. Les images stockées dans les EDS étant très hétérogènes, nous avons développé un outil automatique capable d'évaluer la qualité globale de l'image et d'identifier efficacement les images corrompues. Nous avons amélioré l'outil existant pour les IRMs cérébrales 3D pondérées en T1, développé par (Bottani et al. 2021), en proposant une méthode innovante d'apprentissage par transfert tirant parti de la simulation d'artefacts. Dans un second temps, nous avons étendu notre contrôle qualité automatique à une autre séquence anatomique courante : l'IRM cérébrale 3D FLAIR. Les modèles d'apprentissage automatique étant sensibles aux changements de distribution, nous avons proposé un cadre d'adaptation de domaine semi-supervisé permettant de limiter le nombre de nouvelles annotations manuelles. Enfin, nous avons mené une étude de faisabilité pour évaluer le potentiel des autoencodeurs variationnels pour la détection non supervisée d'anomalies. Les résultats obtenus ont montré une corrélation entre les scores de Fazekas et le volume des lésions segmentées par notre modèle, ainsi qu'une robustesse de la méthode vis-à-vis de la qualité des images. Toutefois, nous avons observé des cas d'échec pour lesquels aucune lésion n'était détectée dans des cas présentant des lésions, ce qui empêche pour l'heure l'utilisation de tels modèles en routine clinique. Bien que les entrepôts de données de santé constituent un écosystème précieux pour la recherche, permettant une meilleure compréhension de la santé de la population générale et, à long terme, susceptible de contribuer au développement de la médecine prédictive et préventive, leurs utilisations à des fins de recherche n'est pas sans poser de difficultés
Patient's hospitalisation generates data about their health, which is essential to ensure that they receive the best possible care. Over the last decade, clinical data warehouses (CDWs) have been created to exploit this vast amount of clinical information for research purposes. CDWs offer remarkable potential for research by bringing together a huge amount of real-world data of diverse nature (electronic health records, imaging data, pathology and laboratory tests...) from up to millions of patients. Access to such large clinical routine datasets, which are an excellent representation of what is acquired daily in clinical practice, is a major advantage in the development and deployment of powerful artificial intelligence models in clinical routine. Currently, most computer-aided diagnosis models are limited by a training performed only on research datasets with patients meeting strict inclusion criteria and data acquired under highly standardised research protocols, which differ considerably from the realities of clinical practice. This gap between research and clinical data is leading to the failure of AI systems to be well generalised in clinical practice.This thesis examined how to leverage clinical data warehouse brain MRI data for research purposes.Because images gathered in CDW are highly heterogeneous, especially regarding their quality, we first focused on developing an automated solution capable of effectively identifying corrupted images in CDWs. We improved the initial automated 3D T1 weighted brain MRI quality control developed by (Bottani et al. 2021) by proposing an innovative transfer learning method, leveraging artefact simulation.In the second work, we extended our automatic quality control for T1-weighted MRI to another common anatomical sequence: 3D FLAIR. As machine learning models are sensitive to distribution shifts, we proposed a semi-supervised domain adaptation framework. Our automatic quality control tool was able to identify images that are not proper 3D FLAIR brain MRIs and assess the overall image quality with a limited number of new manual annotation of FLAIR images. Lastly, we conducted a feasibility study to assess the potential of variational autoencoders for unsupervised anomaly detection. We obtained promising results showing a correlation between Fazekas scores and volumes of lesions segmented by our model, as well as the robustness of the method to image quality. Nevertheless, we still observed failure cases where no lesion is detected at all in lesional cases, which prevents this type of model to be used in clinical routine for now.Although clinical data warehouses are an incredible research ecosystem, to enable a better understanding of the health of the general population and, in the long term, contributing to the development of predictive and preventive medicine, their use for research purposes is not without its difficulties
APA, Harvard, Vancouver, ISO, and other styles
3

El, Malki Mohammed. "Modélisation NoSQL des entrepôts de données multidimensionnelles massives." Thesis, Toulouse 2, 2016. http://www.theses.fr/2016TOU20139/document.

Full text
Abstract:
Les systèmes d’aide à la décision occupent une place prépondérante au sein des entreprises et des grandes organisations, pour permettre des analyses dédiées à la prise de décisions. Avec l’avènement du big data, le volume des données d’analyses atteint des tailles critiques, défiant les approches classiques d’entreposage de données, dont les solutions actuelles reposent principalement sur des bases de données R-OLAP. Avec l’apparition des grandes plateformes Web telles que Google, Facebook, Twitter, Amazon… des solutions pour gérer les mégadonnées (Big Data) ont été développées et appelées « Not Only SQL ». Ces nouvelles approches constituent une voie intéressante pour la construction des entrepôts de données multidimensionnelles capables de supporter des grandes masses de données. La remise en cause de l’approche R-OLAP nécessite de revisiter les principes de la modélisation des entrepôts de données multidimensionnelles. Dans ce manuscrit, nous avons proposé des processus d’implantation des entrepôts de données multidimensionnelles avec les modèles NoSQL. Nous avons défini quatre processus pour chacun des deux modèles NoSQL orienté colonnes et orienté documents. De plus, le contexte NoSQL rend également plus complexe le calcul efficace de pré-agrégats qui sont habituellement mis en place dans le contexte ROLAP (treillis). Nous avons élargis nos processus d’implantations pour prendre en compte la construction du treillis dans les deux modèles retenus.Comme il est difficile de choisir une seule implantation NoSQL supportant efficacement tous les traitements applicables, nous avons proposé deux processus de traductions, le premier concerne des processus intra-modèles, c’est-à-dire des règles de passage d’une implantation à une autre implantation du même modèle logique NoSQL, tandis que le second processus définit les règles de transformation d’une implantation d’un modèle logique vers une autre implantation d’un autre modèle logique
Decision support systems occupy a large space in companies and large organizations in order to enable analyzes dedicated to decision making. With the advent of big data, the volume of analyzed data reaches critical sizes, challenging conventional approaches to data warehousing, for which current solutions are mainly based on R-OLAP databases. With the emergence of major Web platforms such as Google, Facebook, Twitter, Amazon...etc, many solutions to process big data are developed and called "Not Only SQL". These new approaches are an interesting attempt to build multidimensional data warehouse capable of handling large volumes of data. The questioning of the R-OLAP approach requires revisiting the principles of modeling multidimensional data warehouses.In this manuscript, we proposed implementation processes of multidimensional data warehouses with NoSQL models. We defined four processes for each model; an oriented NoSQL column model and an oriented documents model. Each of these processes fosters a specific treatment. Moreover, the NoSQL context adds complexity to the computation of effective pre-aggregates that are typically set up within the ROLAP context (lattice). We have enlarged our implementations processes to take into account the construction of the lattice in both detained models.As it is difficult to choose a single NoSQL implementation that supports effectively all the applicable treatments, we proposed two translation processes. While the first one concerns intra-models processes, i.e., pass rules from an implementation to another of the same NoSQL logic model, the second process defines the transformation rules of a logic model implementation to another implementation on another logic model
APA, Harvard, Vancouver, ISO, and other styles
4

Benitez-Guerrero, Edgard. "Infrastructure adaptable pour l'évolution des entrepôts de données." Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00010335.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Sautot, Lucile. "Conception et implémentation semi-automatique des entrepôts de données : application aux données écologiques." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS055/document.

Full text
Abstract:
Cette thèse traite de la conception semi-automatique d'entrepôts de données et des cubes OLAP associés pour l'analyse de données écologiques.Les sciences biologiques, notamment l'écologie et l'agronomie, génèrent des données qui nécessitent un effort de collecte important : plusieurs années sont souvent nécessaires pour obtenir un jeu de données complets. De plus, les objets et les phénomènes étudiés par ces sciences sont complexes et nécessite l'enregistrement de nombreux paramètres pour être appréhendés. Enfin, le recueil de données complexes sur un temps long a pour conséquence un risque accru d’inconsistance au sein de ces données. Ainsi, ces sciences génèrent des données nombreuses, hétérogènes, voir inconsistantes.Il est donc intéressant de proposer aux scientifiques travaillant dans les sciences du vivant des systèmes d'information capable de stocker et de restituer leurs données, en particulier quand celles ci présentent un volume important. Parmi les outils existants, les outils de l'informatique décisionnelle, notamment les systèmes d'analyse en ligne (On-Line Analytical processing : OLAP), ont particulièrement retenu notre attention, car il s'agit de processus d'analyse de données sur de larges collections de données historiques (c'est-à-dire un entrepôt de données) afin d'offrir un support à la prise de décision. L'informatique décisionnelle propose des outils qui permettent à leurs utilisateurs d'explorer de larges volumes de données, dans le but de découvrir des modèles et des connaissances au sein de ces données, et ainsi d'éventuellement confirmer leurs hypothèses.Cependant, les systèmes OLAP sont des systèmes d'information complexes dont la mise en place nécessite des compétences avancées en informatique décisionnelle. Ainsi, bien qu'ils aient des caractéristiques intéressantes pour gérer et analyser des données multidimensionnelles, leur complexité les rend difficilement accessibles pour des utilisateurs potentiels, qui ne seraient pas des informaticiens professionnels.Dans la littérature, plusieurs travaux se sont penchés sur la conception automatique de schéma multidimensionnel, mais les exemples proposés par ces travaux concernaient des données classiques. Par ailleurs, d'autres articles traitent de la modélisation multidimensionnelle adaptée à des données complexes (inconsistance, données hétérogènes, intégration d'objets spatiaux, de textes, d'images au sein d'un entrepôt …) mais les méthodes proposées par ces travaux sont rarement automatique.C'est pourquoi l'objectif de ce travail de thèse est de proposer une méthode de conception d'entrepôt de données et des cubes OLAP associés la plus automatique possible. Cette méthode doit être capable de prendre en compte la complexité des données inhérente aux sciences biologiques.Pour tester les différents prototypes que nous avons proposé durant ce travail de thèse, nous avons disposé d'un jeu de données concernant l'abondance des oiseaux le long de la Loire. Ce jeu de données est structuré de la façon suivante : (1) nous disposons du recensement de 213 espèces d'oiseaux (décrites par un ensemble de facteurs qualitatifs, comme par exemple le régime alimentaire) en 198 points le long du fleuve pour 4 campagnes de recensement ; (2) chacun des 198 points est décrits par un ensemble de variables environnementales issues de différentes sources (relevés de terrain, images satellites, SIG). Ce sont ces variables environnementales qui posent le plus de questions en termes de modélisation multidimensionnelle. Ces données sont issues de différentes sources, parfois indépendantes des campagnes de recensement des oiseaux, et sont donc inconsistantes dans le temps et l'espace. De plus, ces données sont hétérogènes : elles peuvent se présenter sous forme de facteurs qualitatifs, quantitatifs ou encore d'objets spatiaux. Pour finir, ces données environnementales intègrent un grand nombre de facteurs (158 variables retenues) (...)
This thesis concerns the semi-automatic design of data warehouses and the associated OLAP cubes analyzing ecological data.The biological sciences, including ecology and agronomy, generate data that require an important collection effort: several years are often required to obtain a complete data set. Moreover, objects and phenomena studied by these sciences are complex and require many parameter recording to be understood. Finally, the collection of complex data over a long time results in an increased risk of inconsistency. Thus, these sciences generate numerous and heterogeneous data, which can be inconsistent. It is interesting to offer to scientists, who work in life sciences, information systems able to store and restore their data, particularly when those data have a significant volume. Among the existing tools, business intelligence tools, including online analytical systems (On-Line Analytical processing: OLAP), particularly caught our attention because it is data analysis process working on large historical collections (i.e. a data warehouse) to provide support to the decision making. The business intelligence offers tools that allow users to explore large volumes of data, in order to discover patterns and knowledge within the data, and possibly confirm their hypotheses.However, OLAP systems are complex information systems whose implementation requires advanced skills in business intelligence. Thus, although they have interesting features to manage and analyze multidimensional data, their complexity makes them difficult to manage by potential users, who would not be computer scientists.In the literature, several studies have examined the automatic multidimensional design, but the examples provided by theses works were traditional data. Moreover, other articles address the multidimensional modeling adapted to complex data (inconsistency, heterogeneous data, spatial objects, texts, images within a warehouse ...) but the proposed methods are rarely automatic. The aim of this thesis is to provide an automatic design method of data warehouse and OLAP cubes. This method must be able to take into account the inherent complexity of biological data. To test the prototypes, that we proposed in this thesis, we have prepared a data set concerning bird abundance along the Loire. This data set is structured as follows: (1) we have the census of 213 bird species (described with a set of qualitative factors, such as diet) in 198 points along the river for 4 census campaigns; (2) each of the 198 points is described by a set of environmental variables from different sources (land surveys, satellite images, GIS). These environmental variables address the most important issue in terms of multidimensional modeling. These data come from different sources, sometimes independent of bird census campaigns, and are inconsistent in time and space. Moreover, these data are heterogeneous: they can be qualitative factors, quantitative varaibles or spatial objects. Finally, these environmental data include a large number of attributes (158 selected variables) (...)
APA, Harvard, Vancouver, ISO, and other styles
6

Bouchakri, Rima. "Conception physique statique et dynamique des entrepôts de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0012/document.

Full text
Abstract:
Les entrepôts de données permettent le stockage et la consolidation, en une seule localité, d'une quantité gigantesque d'information pour être interrogée par des requêtes décisionnelles complexes dites requêtes de jointures en étoiles. Afin d'optimiser ses requêtes, plusieurs travaux emploient des techniques d'optimisations comme les index de jointure binaires et la fragmentation horizontale durant la phase de conception physique d'un entrepôt de données. Cependant, ces travaux proposent des algorithmes statiques qui sélectionnent ces techniques de manière isolée et s'intéressent à l'optimisation d'un seul objectif à savoir les performances des requêtes. Notre principale contribution dans cette thèse est de proposer une nouvelle vision de sélection des techniques d'optimisation. Notre première contribution est une sélection incrémentale qui permet de mettre à jour de manière continuelle le schéma d'optimisation implémenté sur l'ED, ce qui assure l'optimisation continuelle des requêtes décisionnelles. Notre seconde contribution est une sélection incrémentale jointe qui combine deux techniques d'optimisation pour couvrir l'optimisation d'un maximum de requêtes et respecter au mieux les contraintes d'optimisation liées à chacune de ces techniques. A l'issu de ces propositions, nous avons constaté que la sélection incrémentale engendre un coût de maintenance de l'ED. Ainsi, notre troisième proposition est une formulation et r!:solution du problème multi-objectif de sélection des techniques d'optimisation où il faut optimiser deux objectifs: la performance des requêtes et le coût de maintenance de l'ED
Data Warehouses store into a single location a huge amount of data. They are interrogated by complex decisional queries called star join queries. To optimize such queries, several works propose algorithms for selecting optimization techniques such as Binary Join Indexes and Horizontal Partitioning during the DW physical design. However, these works propose static algorithms, select optimization techniques in and isolated way and focus on optimizing a single objective which is the query performance. Our main contribution in this thesis is to propose a new vision of optimization techniques selection. Our first contribution is an incremental selection that updates continuously the optimization scheme implemented on the DW, to ensure the continual optimization of queries. To deal with queries complexity increase, our second contribution is a join incremental selection of two optimization techniques which covers the optimization of a maximum number or queries and respects the optimization constraints. Finally, we note that the incremental selection generates a maintenance cost to update the optimization schemes. Thus, our third prop05ilion is to formulate and resolve a multi-objective selection problem or optimization techniques where we have two objectives to optimize : queries performance and maintenance cost of the DW
APA, Harvard, Vancouver, ISO, and other styles
7

Boly, Aliou. "Fonctions d'oubli et résumés dans les entrepôts de données." Paris, ENST, 2006. http://www.theses.fr/2006ENST0049.

Full text
Abstract:
Les entrepôts de données stockent des quantités de données de plus en plus massives et arrivent vite à saturation. La solution qui est appliquée en général est d'assurer un archivage périodique des données les plus anciennes. Cette solution n'est pas satisfaisante car l'archivage et la remise en ligne des données sont des opérations coûteuses au point que l'on peut considérer que des données archivées sont des données perdues du point de vue de leur utilisation dans le cadre d'une analyse des données. Dans cette thèse, nous proposons une solution pour résoudre ce problème : un langage de spécifications de fonctions d'oubli est défini pour déterminer les données qui doivent être présentes dans l'entrepôt de données à chaque instant. Ces spécifications de fonctions d'oubli conduisent à supprimer de façon mécanique les données 'oublier', tout en conservant un résumé de celles-ci par agrégation et par échantillonnage. L'objectif est de mettre à disposition de l'administrateur de l'entrepôt de données des outils permettant de maîtriser la taille de l'entrepôt et d'automatiser au maximum le processus d'archivage des données anciennes en fonction de stratégies prédéfinies. Dans cette thèse, nous nous plaçons dans le cadre du modèle relationnel et nous définissons un langage de spécifications de fonctions d'oubli ainsi que les principes et les algorithmes pour mettre à jour le contenu de l'entrepôt conformément aux spécifications de fonctions d'oubli. Des mécanismes de consultation et d'analyse des résumés constitués sont également proposés
The amount of data stored in data warehouses grows very quickly so that they get saturated. To overcome this problem, the solution is generally to archive older data when new data arrive if there is no space left. This solution is not satisfactory because data mining analyses based on long term historical data become impossible. As a matter of fact data mining analysis cannot be done on archived data without re-loading them in the data warehouse; and the cost of loading back a large dataset of archived data is too high to be operated just for one analysis. So, archived data must be considered as lost data regarding to data mining applications. In this thesis, we propose a solution for solving this problem: a language is defined to specify forgetting functions on older data. The specifications include the definition of some summaries of deleted data to define what data should be present in the data warehouse at each step of time. These summaries are aggregates and samples of deleted data and will be kept in the data warehouse. The goal of these forgetting functions is to control the size of the data warehouse. This control is provided both for the aggregate summaries and the samples. The specification language for forgetting function is defined in the context of relational databases. Once forgetting functions have been specified, the data warehouse is automatically updated in order to follow the specifications. This thesis presents both the language for specifications, the structure of the summaries, the algorithms to update the data warehouse and the possibility of performing interesting analyses of historical data
APA, Harvard, Vancouver, ISO, and other styles
8

Badri, Mohamed. "Maintenance des entrepôts de données issus de sources hétérogènes." Paris 5, 2008. http://www.theses.fr/2008PA05S006.

Full text
Abstract:
Ce travail s'inscrit dans le domaine des entrepôts de données qui, d'une part se situent au cœur du système d'information décisionnel et d'autre part servent de support pour l'analyse et l'aide à la décision (OLAP, data mining, reporting). L'entrepôt de données, étant une entité vivante dont le contenu est régulièrement alimenté et rafraîchi, l'actualisation de ses indicateurs d'analyse (agrégats) constitue un facteur crucial pour la prise de décision. La maintenance occupe une place stratégique dans le dispositif du système décisionnel et représente également un critère d'évaluation des performances d'un entrepôt. Par ailleurs, et suite à l'avènement des technologies de communication, particulièrement Internet, les données sont fortement distribuées et hétérogènes ; nous pouvons les classer en trois catégories, à savoir : les données structurées, les données semi-structurées et les données non-structurées. Dans le présent travail, nous proposons, dans un premier temps, une approche de modélisation pour intégrer toutes ces données. Nous proposons, par la suite et en se basant sur cette approche, un processus qui assure la maintenance des données et des agrégats de l'entrepôt. Nous proposons également une structure arborescente de gestion d'agrégats ainsi que les algorithmes qui en assurent l'évolution. Dans le contexte d'hétérogénéité dans lequel nous nous plaçons, toutes nos propositions sont indépendantes du modèle de l'entrepôt et de son système de gestion. Enfin et pour valider nos contributions, nous avons développé le prototype HDIM (Heterogeneous Data Intégration and Maintenance) et effectué une série d'expérimentations pertinentes
This work has been performed in the field of data warehouses (DW). DW are in the core of Decision making information system and are used to support decision making tools (OLAP, data mining, reporting). A DW is an alive entity which content is continuously fed and refreshed. Updating aggregates of DW is crucial for the decision making. That is why the DW maintenance has a strategic place in the decision system process. It is also used as a performance criterion of a DW system. Since the communication technologies especially Internet are steadily growing, data are becoming more and more heterogeneous and distributed. We can classify them in three categories: structured data, semi-structured data and unstructured data. In this work we are presenting first a modelling approach with the aim of integrating all this data. On the bases of this approach, we are thereafter proposing a process that insures an incremental warehouse data and aggregates maintenance. We are also proposing a tree structure to manage aggregates as well as algorithms that insure its evolution. Being in the context of heterogeneity, all our proposals are independent of the warehouse model and of its management system. In order to validate our contribution, the Heterogeneous Data Integration and Maintenance (HDIM) prototype has been developped and some experiments performed
APA, Harvard, Vancouver, ISO, and other styles
9

Aouiche, Kamel. "Techniques de fouille de données pour l'optimisation automatique des performances des entrepôts de données." Lyon 2, 2005. http://theses.univ-lyon2.fr/documents/lyon2/2005/aouiche_k.

Full text
Abstract:
Avec le développement des bases de données en général et des entrepôts de données en particulier, il est devenu très important de réduire les tâches d'administration des systèmes de gestion de base de données. Les systèmes auto-administratifs ont pour objectif de s'administrer et de s'adapter eux-mêmes, automatiquement, sans perte ou même avec un gain de performance. L'idée d'utiliser des techniques de fouille de données pour extraire des connaissances utiles à partir des données stockées pour leur administration est une approche très prometteuse, notamment dans le domaine des entrepôts de données, où les requêtes sont très hétérogènes et ne peuvent pas être interprétées facilement. L'objectif de cette thèse est d'étudier les techniques d'auto-administration des entrepôts de données, principalement des techniques d'optimisation des performances, comme l'indexation et la matérialisation de vues, et de rechercher une manière d'extraire des données elles-mêmes des connaissances utilisables pour appliquer ces techniques. Nous avons réalisé un outil qui recommande une configuration d'index et de vues matérialisées permettant d'optimiser le temps d'accès aux données. Notre outil effectue une recherche de motifs fréquents fermés sur une charge donnée et une classification non supervisée des requêtes de la charge pour construire cette configuration d'index et de vues. Nous avons également couplé la sélection d'index et de vues matérialisées afin de partager efficacement l'espace de disque alloué pour stocker ces structures. Enfin, nous avons appliqué les principes développés dans le cadre relationnel aux entrepôts de données XML. Nous avons proposé une structure d'index précalculant les jointures entre les faits et les dimensions XML et adapté notre stratégie de sélection de vues pour matérialiser des vues XML
With the development of databases in general and data warehouses in particular, it becomes very important to reduce the function of administration. The aim of auto-administrative systems is administrate and adapt themselves automatically, without loss or even with a gain in performance. The idea of using data mining techniques to extract useful knowledge for administration from the data themselves has been in the air for some years. However, no research has ever been achieved. As for as we know, it nevertheless remains a very promising approach, notably in the field of the data warehousing, where the queries are very heterogeneous and cannot be interpreted easily. The aim of this thesis is to study auto-administration techniques in databases and data warehouses, mainly performance optimization techniques such as indexing and view materialization, and to look for a way of extracting from stored data themselves useful knowledge to apply these techniques. We have designed a tool that finds an index and view configuration allowing to optimize data access time. Our tool searches frequent itemsets in a given workload and clusters the query workload to compute this index and view configuration. Finally, we have extended the performance optimization to XML data warehouses. In this area, we proposed an indexing technique that precomputes joins between XML facts and dimensions and adapted our materialized view selection strategy for XML materialized views
APA, Harvard, Vancouver, ISO, and other styles
10

Khrouf, Kaïs. "Entrepôts de documents : de l'alimentation à l'exploitation." Toulouse 3, 2004. http://www.theses.fr/2004TOU30109.

Full text
Abstract:
Nous proposons dans le cadre de cette thèse le concept d'entrepôt de documents permettant le stockage de documents hétérogènes, sélectionnés et filtrés, ainsi que leur classification selon des structures logiques génériques (structures communes à un ensemble de documents). Une telle organisation des entrepôts permet de faciliter l'exploitation des informations documentaires intégrées au travers de plusieurs techniques complémentaires : la recherche d'information qui consiste à restituer des granules de documents en réponse à une requête formulée à l'aide de mots-clés (langage libre), l'interrogation des données qui consiste à récupérer des données factuelles (de structure ou de contenu) en utilisant un langage déclaratif, l'analyse multidimensionnelle qui consiste à manipuler les informations de l'entrepôt selon des dimensions non prédéfinies. Pour valider nos propositions, nous avons développé un outil DOCWARE (DOCument WAREhouse) d'aide à l'intégration et à l'analyse de documents
In this thesis, we propose the concept of document warehouse which consists in the storage of heterogeneous, selected and filtered documents, and their classification according to generic logical structures (common structures to a set of documents). Such warehouses organization facilitates the exploitation of the integrated documentary information through several complementary techniques : the information retrieval which consists in the restitution document granules in response to a query formulated with keywords (free language), the data interrogation which consists in the restitution factual data (structure or content) by using a declarative language, the multidimensional analysis which consists in the manipulation of warehouse information according to not-predefined dimensions. To validate our propositions, we developed an aid tool DOCWARE (DOCument WAREhouse) for the integration and the analysis of documents
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Entrepôts de données – Médecine"

1

Rode, Gilles. Handicap, médecine physique et réadaptation, guide pratique. Montrouge: Édition Xavier Montauban, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Inmon, W. H. Building the Data Warehouse. New York: John Wiley & Sons, Ltd., 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

E, Burkey Roxanne, and Breakfield Charles V, eds. Designing a total data solution: Technology, implementation, and deployment. Boca Raton, FL: Auerbach, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Silvers, Fon. Building and Maintaining a Data Warehouse. London: Taylor and Francis, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

E, Sanders Roger. DB2 universal database application programming interface (API) developer's guide. New York: McGraw-Hill, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Peter, Aiken, ed. Building corporate portals using XML. New York: McGraw-Hill, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

1968-, Gupta Ashish, and Mumick Inderpal Singh, eds. Materialized views: Techniques, implementations, and applications. Cambridge, Mass: MIT Press, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kimball, Ralph. The data warehouse toolkit: Practical techniques for building dimensional data warehouses. New York: John Wiley & Sons, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Katcher, Brian S. MEDLINE: A guide to effective searching in PubMed and other interfaces. 2nd ed. San Francisco: Ashbury Press, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Katcher, Brian S. MEDLINE: A guide to effective searching in PubMed and other interfaces. 2nd ed. San Francisco: Ashbury Press, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Entrepôts de données – Médecine"

1

Goffinet, F., N. Lelong, A. C. Thieulin, V. Vodovar, L. Faure, T. Andrieu, and B. Khoshnood. "Évaluation en population du dépistage prénatal des cardiopathies congénitales : Données du registre des malformations congénitales de Paris et de la cohorte EPICARD." In 41es Journées nationales de la Société Française de Médecine Périnatale (Grenoble 12–14 octobre 2011), 141–56. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0257-2_14.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

WACK, Maxime. "Entrepôts de données cliniques." In Intégration de données biologiques, 9–31. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch1.

Full text
Abstract:
La prise en charge des patients dans les hôpitaux, les cabinets de ville et toutes les structures de soins produit une grande quantité d’informations. Ces données, générées pour le soin, peuvent être réutilisées pour la recherche et l’amélioration des soins dans des entrepôts de données cliniques. Ce chapitre explore les différentes architectures, la construction des entrepôts et leur utilisation pour la recherche.
APA, Harvard, Vancouver, ISO, and other styles
3

REBOUILLAT, Violaine, and Joachim SCHÖPFEL. "Le dispositif d’entrepôt de données de recherche." In Partage et valorisation des données de la recherche, 7–37. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch1.

Full text
Abstract:
Qu’est-ce qu’un entrepôt de données de recherche ou, en anglais, un research data repository ? D’où vient ce terme ? Comment décrire ce dispositif ? Le premier chapitre essaie de répondre à toutes ces questions, même si le paysage des entrepôts est caractérisé par une grande variété et hétérogénéité. La question de la confiance est au cœur du développement des entrepôts de données de recherche – confiance aussi bien dans le contenu que dans la qualité du dispositif. Etroitement lié à la question de la confiance est l’enjeu de la certification des entrepôts.
APA, Harvard, Vancouver, ISO, and other styles
4

HAHNEL, Mark. "Figshare : une place pour les résultats de la recherche scientifique ouverte." In Partage et valorisation des données de la recherche, 193–216. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch10.

Full text
Abstract:
Lancé en 2012, Figshare est aujourd’hui l’un des grands entrepôts de données de recherche internationaux. Quel est son statut ? Quels sont ses objectifs, ses fonctionnalités, ses points forts ? La plupart des entrepôts sont disciplinaires. Quelle est la place pour un entrepôt généraliste ou générique ? Quels sont les enjeux et les perspectives ?
APA, Harvard, Vancouver, ISO, and other styles
5

SCHÖPFEL, Joachim. "Enjeux et perspectives des entrepôts de données de recherche." In Partage et valorisation des données de la recherche, 231–50. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch12.

Full text
Abstract:
Les entrepôts jouent un rôle essentiel pour la gestion des données de la recherche. Ce dernier chapitre résume les principaux enjeux auxquels ces dispositifs font face ; parmi ces enjeux, nous évoquerons non seulement la volumétrie et la complexité des données, l’intégration dans l’écosystème des infrastructures de recherche et l’ouverture vers l’international, mais également la qualité des données et l’acceptation par les chercheurs. Quelles sont les perspectives ? L’avenir des entrepôts sera conditionné par l’évolution scientifique et technologique, par des choix politiques et économiques, mais aussi par la recherche d’un équilibre entre les besoins spécifiques des communautés et la tendance vers la standardisation et, last not least, par la prise en compte du facteur humain.
APA, Harvard, Vancouver, ISO, and other styles
6

Godeau, Emmanuelle, Marlène Monégat, and Dibia Pacoricona Alfaro. "Données épidémiologiques en santé." In Médecine et Santé de L'adolescent, 29–34. Elsevier, 2019. http://dx.doi.org/10.1016/b978-2-294-75919-2.00003-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Brochériou, I. "Données Anatomopathologiques en Pathologie Vasculaire." In Traité de médecine vasculaire., 5–28. Elsevier, 2010. http://dx.doi.org/10.1016/b978-2-294-70917-3.50001-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

SCHÖPFEL, Joachim. "Le paysage des entrepôts de données de recherche en France." In Partage et valorisation des données de la recherche, 39–55. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch2.

Full text
Abstract:
Combien existe-t-il d’entrepôts de données de recherche en France ? Ce chapitre essaie de fournir une réponse à cette question, avec une analyse de la typologie des entrepôts, de leurs domaines scientifiques et de leur qualité. Mais en fait, que veut dire « en France » dans un paysage fortement internationalisé ?
APA, Harvard, Vancouver, ISO, and other styles
9

WEISWEILER, Nina, and Gabriele KLOSKA. "COREF : un projet pour le développement de re3data." In Partage et valorisation des données de la recherche, 217–30. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch11.

Full text
Abstract:
Re3data est un répertoire international multidisciplinaire gratuit d'entrepôts de données de recherche. Il est a été lancé en 2012 avec un financement par la Fondation allemande pour la recherche (DFG). Aujourd’hui, re3data est considéré comme une plateforme de référence pour signaler et trouver des entrepôts thématiques de données de recherche dans plus de 80 pays. Ce chapitre présente le répertoire, ses objectifs, son développement et ses fonctionnalités, et il décrit les évolutions en cours.
APA, Harvard, Vancouver, ISO, and other styles
10

HAAK, Wouter, Juan GARCÍA MORGADO, Jennifer RUTTER, Alberto ZIGONI, and David TUCKER. "Mendeley Data." In Partage et valorisation des données de la recherche, 167–91. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch9.

Full text
Abstract:
Mendeley a été lancé en 2008 à Londres par des étudiants, comme un réseau social scientifique pour gérer et partager des publications. Après son rachat par Elsevier en 2013, d’autres services et fonctionnalités ont été ajoutés à Mendeley, dont en particulier un service dédié aux données de recherche. Mendeley Data – le nom de ce nouveau service – est en même temps un entrepôt de données et un moteur de recherche pour trouver des données dans d’autres entrepôts. Nous avons demandé à Elsevier de nous parler de ce service, de ses particularités, de son positionnement, ses enjeux, ses perspectives.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Entrepôts de données – Médecine"

1

Fricain, J. C. "Mucites : une prise en charge basée sur la preuve." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601008.

Full text
Abstract:
Les mucites sont des inflammations muqueuses secondaires à un traitement anticancéreux : radiothérapie, chimiothé- rapie, thérapie ciblée. Les mucites se développent sur l’ensemble du tractus digestif, de la bouche à lanus. La sévérité des mucites orales conditionne lalimentation et par conséquent le pronostic de la maladie. Le traitement des mucites orales reste très dépendant des centres doncologie et des habitudes locales. L’objectif de cette présentation est de faire un état des lieux des connaissances actuelles sur les mucites et de leurs traitements en mettant en exergue les données de médecine basée sur la preuve de ce domaine thérapeutique.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Entrepôts de données – Médecine"

1

McAdams-Roy, Kassandra, Philippe Després, and Pierre-Luc Déziel. La gouvernance des données dans le domaine de la santé : Pour une fiducie de données au Québec ? Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, February 2023. http://dx.doi.org/10.61737/nrvw8644.

Full text
Abstract:
Promesses technologiques et protection des intérêts personnels à l’ère des données massives : Comment trouver un juste milieu ? Les nouvelles technologies numériques ont connu d’importants avancements au cours des dernières années. Étant à l’aube de l’ère de l’intelligence artificielle, ces dernières ont créé une soif inédite pour les données de toutes sortes. Bien que ces technologies soient prometteuses de nombreuses améliorations à nos vies quotidiennes ainsi qu’à plusieurs domaines telle la médecine, le droit, et la pharmacologie, elles engendrent aussi de nombreuses préoccupations. Ainsi, il y a actuellement un effort en cours pour trouver des solutions qui sauront mieux encadrer ces nouvelles technologies et protéger les intérêts individuelles et collectifs, sans toutefois nuire à l’essor de leur plein potentiel. La fiducie de données fut identifiée comme une telle solution. Prônée pour sa versatilité et sa flexibilité, elle est présentée comme un outil qui permettrait de trouver un juste milieu entre innovation et protection des intérêts individuels dans le cadre d’une stratégie de gouvernance responsable des données. Plusieurs sont ainsi à étudier son applicabilité dans différents secteurs et différentes juridictions et elle est l’objet de la présente étude. Cette étude s’intéresse spécifiquement à savoir si une fiducie de données pourrait être établie au Québec pour la gestion des données dans le domaine de la santé.
APA, Harvard, Vancouver, ISO, and other styles
2

Catherine, Hugo. Étude comparative des services nationaux de données de recherche Facteurs de réussite. Ministère de l'enseignement supérieur et de la recherche, January 2021. http://dx.doi.org/10.52949/6.

Full text
Abstract:
Ce travail a pour objectif de nourrir la réflexion en présentant un état des lieux de différents services nationaux de données. Il porte sur sept infrastructures de services qui se sont développées dans des contextes différents mais qui partagent un grand nombre de points communs, à commencer par offrir un accès à un service de données à l’ensemble des chercheurs, à l’échelle nationale. Que ce soit pour faciliter l’accès et le partage de l’information scientifique ou répondre aux exigences des bailleurs de fonds, les services nationaux de données qui font l’objet de cette étude se sont développés autour d’un noyau de fonctionnalités communes : - un service de dépôt, - un service d’archivage pérenne, - un service d’assistance et d’accompagnement à la gestion des données. La plupart d’entre eux ont aussi choisi de proposer un service de signalement et d’accès qui s’appuie soit sur un outil de découverte interne, soit sur un moteur de recherche fédérant l’accès à des données provenant de services externes à celles déposées dans leurs entrepôts. Fruit de projets au long cours, les services nationaux de données restent des initiatives plutôt récentes, l’une d’entre elles doit ouvrir ses services au début de l’année 2021. Compte tenu du contexte très dynamique qui voient se multiplier les projets d’entrepôts institutionnels, le “temps long” qui caractérise la mise en place de services nationaux incite les opérateurs à opter pour des solutions techniques et organisationnelles flexibles, de manière à pouvoir s’adapter à l’évolution des usages et des attentes des utilisateurs. Dès le stade du projet, la consultation des acteurs clés et représentatifs de la diversité des écosystèmes scientifiques s’avère incontournable pour construire l’offre de services au plus près des attentes des publics visés. Une fois le service mis en place, ce principe de co-construction prévaut tout autant : rôle déterminant des institutions partenaires au sein des comités consultatifs, appels à projets de service, implication des chercheurs pour développer de nouveaux outils (ex. retours exprimés par les utilisateurs, recueil des besoins, tests). De la même manière, les services de données inscrivent leur activité au sein de réseaux nationaux et internationaux, ce qui participe à définir et renforcer leur rôle. La majeure partie de ces infrastructures nationales s’appuie sur le financement structurel assuré par le ministère de la recherche ou un bailleur de fonds public. En s’appuyant sur la collaboration ou la fédération, l’objectif de ces initiatives nationales est aussi de réduire les coûts pour l’ensemble des partenaires. Ces économies d’échelle, l’évaluation continue des services, l'interopérabilité des outils avec les écosystèmes existants et la fiabilité des solutions techniques représentent des points d’attention déterminants pour l’ensemble de ces dispositifs car ils conditionnent leur pérennité.
APA, Harvard, Vancouver, ISO, and other styles
3

Vaillancourt, François, Brahim Boudarbat, and Feriel Grine. Le rendement privé et social de la scolarité postsecondaire professionnelle, collégiale et universitaire au Québec : résultats pour 2020. CIRANO, November 2024. http://dx.doi.org/10.54932/zzbr5677.

Full text
Abstract:
Cette étude calcule, pour le Québec, les taux de rendement privés et sociaux de trois types de scolarité postsecondaire (professionnelle, collégiale et universitaire) pour les femmes et les hommes, et dans divers domaines d’études, en utilisant les données du Recensement canadien de 2021. Les auteurs expliquent que la rentabilité d’une formation de type professionnel pré-collégial (apprenti ou autre formation) est plus élevée que le taux de rendement d’une formation collégiale technique, lequel est lui-même supérieur à celui d’une formation préuniversitaire de niveau collégial. Ils montrent également que les plus hauts taux de rendement privés et sociaux pour les diplômes universitaires (hors médecine) sont associés aux études de 1er cycle et en particulier au baccalauréat. Tandis que les taux de rendement des doctorats en santé sont, eux, nettement supérieurs aux autres. Il est, de plus, fréquent que le rendement privé soit moindre aux 2e et 3e cycles qu’au premier. Les taux de rendement sociaux sont, eux, moins élevés que les taux de rendement privés, essentiellement parce que les frais de scolarité ne couvrent qu’une partie des coûts de l’acquisition par un individu d’une éducation postsecondaire. Enfin, cette étude met également en lumiére que les taux de rendement privés des femmes sont plus élevés que ceux des hommes à partir du DEC technique.
APA, Harvard, Vancouver, ISO, and other styles
4

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, December 2022. http://dx.doi.org/10.54932/wodt6646.

Full text
Abstract:
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography