Literatura académica sobre el tema "Données massives – Gestion"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Données massives – Gestion".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Données massives – Gestion"

1

Boelle, Pierre-Yves, Rodolphe Thiébaut y Dominique Costagliola. "Données massives, vous avez dit données massives ?" Questions de santé publique, n.º 30 (septiembre de 2015): 1–4. http://dx.doi.org/10.1051/qsp/2015030.

Texto completo
Resumen
Le terme de données massives décrit le recueil, la gestion et l’analyse de données de sources hétérogènes, d’un volume important, avec une grande vitesse de génération. À côté des données omiques, les données de capteurs, les smartphones et les réseaux sociaux créent une énorme quantité d’informations utilisables en épidémiologie. Les méthodes statistiques classiques ont des limites dans ce contexte qu’on soit dans la situation où l’on a un grand nombre de sujets et un grand nombre de variables ou dans celle où le nombre de variables est bien plus grand que le nombre de sujets. Les méthodes data-driven ou hypothesis-driven peuvent être utilisées pour réduire l’information et aider à l’interprétation des associations mises en évidence. Nous illustrons les aléas et les succès de quelques approches développées sur les données massives dans le champ des maladies transmissibles. Il faut garder à l’esprit que les données massives ne sont pas une solution magique pour l’interprétation causale des associations, au cœur de la démarche épidémiologique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

de Certeau, Michel. "Économies Ethniques : Pour une École de la Diversité". Annales. Histoire, Sciences Sociales 41, n.º 4 (agosto de 1986): 789–815. http://dx.doi.org/10.3406/ahess.1986.283313.

Texto completo
Resumen
L'abondance des travaux statistiques et sociologiques relatifs à la diversité culturelle et linguistique (minorités, particularismes, immigration, etc.) et aux politiques d'éducation mises en œuvre pour la « gérer » autorise à s'interroger sur les problématiques mêmes dont ces travaux s'inspirent ou que, par leurs résultats, ils peuvent suggérer. Ce sera l'objet des quelques réflexions qui suivent. Je n'envisagerai donc pas directement les conflits opposant des groupes minoritaires à des institutions scolaires nationales, ni les données massives qui fondent les revendications de ces groupes et découvrent les déficits de ces institutions. Par « problématique », j'entends la manière dont est traité le problème qui ressort de la violence des faits, la façon de le poser, le système idéologique dans lequel on l'articule pour lui apporter des solutions. Il s'agit de se demander à quelle codification sociale se réfère la manière de penser tous ces faits, et si, d'eux-mêmes, ils n'invitent pas — ils n'obligent pas — à changer le cadre qui sert de référence à une gestion.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Jullian-Desayes, Ingrid, Marie Joyeux-Faure, Sébastien Baillieul, Rita Guzun, Renaud Tamisier y Jean-Louis Pepin. "Quelles perspectives pour le syndrome d’apnées du sommeil et la santé connectée ?" L'Orthodontie Française 90, n.º 3-4 (septiembre de 2019): 435–42. http://dx.doi.org/10.1051/orthodfr/2019019.

Texto completo
Resumen
Introduction : La santé connectée est en plein essor et peut être envisagée à partir de différentes perspectives notamment dans le syndrome d’apnées du sommeil (SAS). Matériels et méthodes : L’objet de cette revue est de montrer comment toutes ces dimensions de la santé connectée s’appliquent déjà à la prise en charge du SAS et de ses comorbidités. Résultats : Tout d’abord, elle permet au patient une meilleure compréhension et une meilleure évaluation de sa santé. Elle facilite également sa prise en charge en lui permettant de devenir acteur de son parcours de soins. Pour les professionnels de santé, les outils de santé connectée permettent de mettre en place de nouvelles procédures de diagnostic, de suivi des patients ambulatoires et de construire entre professionnels de santé et patients des décisions partagées. Enfin pour les chercheurs, l’e-santé génère des données massives facilitant l’acquisition de connaissances en situation de vie réelle, le développement de nouvelles méthodologies d’études cliniques, plus rapides, moins chères et tout aussi fiables. Discussion : Toutes ces considérations s’appliquent déjà dans le contexte du SAS, que ce soit concernant les traitements proposés comme la gestion des comorbidités associées et l’implication du patient dans son parcours de soins.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hernández-Huerta, Arturo, Octavio Pérez-Maqueo y Miguel Equihua Zamora. "¿Puede el desarrollo ser sostenible, integral y coherente?" Regions and Cohesion 8, n.º 3 (1 de diciembre de 2018): 1–14. http://dx.doi.org/10.3167/reco.2018.080302.

Texto completo
Resumen
*Full article is in SpanishEnglish Abstract:At the RISC 2017 International Congress, we reflected on the possibility of achieving a “sustainable, integral and coherent development.” We primarily report here on the panel of Mexican experts who shared their experiences on issues such as the impact of the international agenda on the local policy priorities, the relevance of the participation of local stakeholders and the occurrence of inconsistencies throughout the process of design and implementation of development policies. In addition, other experiences were presented on these issues, some of which are included in this special issue. The general conclusion was that not only is it possible to articulate a sustainable, integral and coherent development but also that approaches and tools are already emerging that favor it through an evidence-based policy management and the use of the growing “environmental big data” that already exists.Spanish Abstract: En el Congreso internacional RISC 2017 se reflexionó sobre la posibilidad de lograr un “desarrollo sostenible, integral y coherente”. En este artículo nos referimos principalmente al panel de expertos mexicanos que compartieron sus experiencias con nosotros sobre asuntos como el impacto de la agenda internacional sobre la local, la relevancia de la participación de los actores locales y la ocurrencia de incoherencias a lo largo del proceso de diseño y aplicación de las políticas para el desarrollo. Además, se expusieron otras experiencias sobre estos asuntos, que han sido recogidas en este número especial. La conclusión general es que se estima que no sólo es posible articular un desarrollo sostenible, integral y coherente, sino que están emergiendo enfoques y herramientas que favorecen propiciarlo a través de la gestión basada en evidencia y el aprovechamiento del creciente “big data ambiental” que ya está existe.French Abstract:Lors du congrès international Consortium pour la Recherche comparative sur l’intégration régionale et la cohésion sociale (RISC) 2017, organisé en coopération avec le programme d’innovation pour l’intégrité dans la gestion de l’environnement pour le développement et soutenu par des données massives (big data) et un apprentissage automatisé (i-Gamma), nous avons réfléchi à la possibilité de parvenir à un “développement durable, intégral et cohérent”. L’événement a ouvert de multiples opportunités de discussions sur le sujet, mais cette introduction est basée sur le panel d’experts mexicains qui ont partagé leurs expériences avec nous sur des questions telles que l’impact de l’agenda international à l’échelle locale, la pertinence de la participation des acteurs locaux et le surgissement d’incohérences tout au long du processus de conception et de mise en oeuvre des politiques de développement. Nous ferons également référence à d’autres expériences présentées autour de ces questions, en mettant l’accent sur les contributions de ce numéro spécial. En conclusion générale, nous pensons qu’il n’est pas seulement possible d’articuler un développement de manière durable, intégrale et cohérente, mais que des approches et des outils sont déjà en train d’émerger et favorisent une gestion fondée sur des données probantes et l’utilisation des « données environnementales à grande échelle » déjà existantes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Hlatywayo, F., D. D. Marques, V. Chikwasha, A. Mandisodza, S. Shumbairerwa y S. T. Mangodza. "A Review of Massive Blood Transfusion and its Associated Syndromes in Zimbabwe". Africa Sanguine 22, n.º 1 (20 de agosto de 2020): 23–30. http://dx.doi.org/10.4314/asan.v22i1.4.

Texto completo
Resumen
Background and objectives: Massive blood transfusion is defined as transfusion approximating or exceeding a patient's total blood volume (5-6 litres in adults) within 24-hours. This procedure is used to manage severely anaemic and bleeding patients. Negative outcomes associatedwith acidosis, hypothermia and coagulopathy may result. The study was carried out to review the management of massive transfusion in Zimbabwe.Materials and methods: A 4-year retrospective clinical laboratory-based study was carried out on patients who had massive blood transfusionat a Zimbabwean hospital, from January 2014 to December 2017. Data was collected from patients’ hospital records after permission from thehospital director.Results: Of the 180 patient records, 145 (80.6%) were from female and 35 (19.4%) from male patients. Massive blood transfusion was done mostly on obstetric patients. Full blood count was the most commonly requested laboratory test, with 155 (86%) requests. Some of the patients had severe anaemia. Routine coagulation tests were significantly abnormal. All patients received packed red cells during the first 24 hours, followed by fresh frozen plasma (57.8%). Platelets, cryoprecipitate and whole blood were infrequently transfused (22%, 3% and 2% respectively). The mortality rate was 25.6% within 24 hours after transfusion. Transfusion of packed red cells alone was significantly associated with mortality (p<0.001) which increased significantly with the use of high numbers of packed red cell units.Conclusion: Massive blood transfusion is associated with a high mortality rate in Zimbabwe. Transfusion of packed red blood cells alone resulted in highest mortality. There was an insufficient use of laboratory tests to monitor massive blood transfusion. This potentially can be addressed by establishing a national massive transfusion protocol for Zimbabwe. French Title: Une revue de la transfusion sanguine massive et de ses syndromes associés au Zimbabwe Contexte et objectifs: La transfusion sanguine massive est définie comme une transfusion se rapprochant ou dépassant le volume sanguin total d'un patient (5-6 litres chez l'adulte) dans les 24 heures. Cette procédure est utilisée pour gérer les patients gravement anémiques et hémorragiques. Des résultats négatifs associés à l'acidose, l'hypothermie et la coagulopathie peuvent en résulter. L'étude a été réalisée pourexaminer la gestion de la transfusion massive au Zimbabwe.Matériel et méthodes: Une étude rétrospective clinique en laboratoire de 4 ans a été menée sur des patients ayant subi une transfusion sanguine massive dans un hôpital du Zimbabwe, de Janvier 2014 à Décembre 2017. Les données ont été collectées à partir des dossiers des patients de l'hôpital après autorisation du Directeur de l'hôpital.Résultats: Sur les 180 dossiers de patients, 145 (80,6%) provenaient de femmes et 35 (19,4%) de patients de sexe masculin. Une transfusion sanguine massive a été effectuée principalement sur des patientes obstétricales. L'hémogramme complet était le test de laboratoire le plus demandé, avec 155 (86%) demandes. Certains patients souffraient d'anémie sévère. Les tests de coagulation de routine étaient significativement anormaux. Tous les patients ont reçu des concentrés de globules rouges au cours des 24 premières heures, suivis de plasma frais congelé (57,8%). Les plaquettes, le cryoprécipité et le sang total ont été rarement transfusés (22%, 3% et 2% respectivement). Le taux de mortalité était de 25,6% dans les 24 heures suivant la transfusion. La transfusion de concentrés de globules rouges seule était significativement associée à la mortalité (p<0,001) qui augmentait significativement avec l'utilisation d'un nombre élevé d'unités.Conclusion: La transfusion sanguine massive est associée à un taux de mortalité élevé au Zimbabwe. La transfusion de concentrés de globules rouges seule a entraîné la mortalité la plus élevée. Les tests de laboratoire étaient insuffisants pour surveiller les transfusions sanguines massives. Cela peut potentiellement être résolu en établissant un protocole national de transfusion massive pour le Zimbabwe
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Fujiki, Kenji y Mélanie Laleau. "Une approche géographique pour spatialiser les besoins en hébergements d'urgence en situation de crise : une étude appliquée au cas d'une évacuation massive provoquée par une crue majeure de la seine en région francilienne". La Houille Blanche, n.º 3-4 (octubre de 2019): 75–83. http://dx.doi.org/10.1051/lhb/2019043.

Texto completo
Resumen
Avec jusqu'à 1 million de personnes inondées, et 6,5 millions d'habitants privés d'eau ou d'électricité, les autorités régionales s'interrogent sur la capacité à mener à bien une évacuation de l'agglomération francilienne en cas de crue exceptionnelle de la Seine. L'étude présentée ici vise à répondre à une partie de ces interrogations, en proposant un outil d'aide à la décision sous SIG pour identifier de façon spatialisée les besoins de prise en charge dans l'hébergement d'urgence des populations sinistrées, en cas d'évacuation massive. La méthodologie se fonde sur la combinaison de deux indices, agrégés à l'échelle du bâti : (1) un « indice d'exposition », qui synthétise des variables relatives à l'aléa et aux impacts physiques induits par ce dernier. Cet indice est constitué à partir d'une réflexion sur la stratégie d'évacuation envisagée par la Préfecture de Police, coordinatrice de la gestion de crise à l'échelle régionale ; (2) un « indice de susceptibilité à l'auto-hébergement », qui vise à représenter la capacité d'une population donnée à trouver un hébergement par ses propres moyens, chez des proches notamment, en synthétisant diverses variables sociales et démographiques. Ces variables sont identifiées grâce à un état de l'art ad hoc, constitué à partir de retours d'expérience internationaux d'évacuations massives passées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Chapman, Craig S. "Force Projection in the Time of Scurvy: The Destruction of the 1740-42 West Indies Expedition". Northern Mariner / Le marin du nord 33, n.º 1 (27 de julio de 2023): 27–42. http://dx.doi.org/10.25071/2561-5467.1081.

Texto completo
Resumen
The massive British West Indies expedition of 1740-42 during the War of Jenkins’ Ear, launched with an ambitious goal, produced nothing beyond terrible losses. The enormous number of deaths from yellow fever has obscured the true reasons for the defeat at Cartagena de Indias that has often been blamed on the army’s slow siege tactics. The author, following his research for Disaster on the Spanish Main: The Tragic British American Expedition to the West Indies during the War of Jenkins’ Ear, has further developed evidence from British musters that upends common assumptions about yellow fever’s impact and, instead, traces the cause of the expedition’s failure to poor health management and misguided military leadership. L'expédition massive des Antilles britanniques de 1740-1742 pendant la guerre de l'Oreille de Jenkins, lancée avec un objectif ambitieux, n'a rien produit d'autre que de pertes terribles. Le nombre énorme de décès dus à la fièvre jaune obscurcit les véritables raisons de la défaite à Carthagène des Indes, souvent imputée à la lenteur des tactiques de siège de l'armée. L'auteur, suite à ses recherches pour Disaster on the Spanish Main: The Tragic British American Expedition to the West Indies during the War of Jenkins’ Ear, a étudié en profondeur les données probantes issues des registre militaire britanniques pour réfuter les hypothèses courantes sur l'impact de la fièvre jaune et attribuer plutôt l'échec de l'expédition à une mauvaise gestion de la santé et à un leadership militaire peu judicieux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Sombié, Issa, David O. S. Ilboudo, André Kamba Soubeiga y Helle Samuelsen. "Comprendre l’influence des facteurs contextuels sur la participation communautaire à la santé : une étude de cas dans le district sanitaire de Tenkodogo, au Burkina Faso". Global Health Promotion 24, n.º 3 (7 de agosto de 2015): 87–95. http://dx.doi.org/10.1177/1757975915591685.

Texto completo
Resumen
Le Burkina Faso met en œuvre depuis plusieurs années la stratégie de la participation communautaire. Des comités de gestion (CoGes) ont été mis en place dans les centres de santé de la première ligne et doivent participer aux prises de décisions. L’objectif principal de cette stratégie est de favoriser l’utilisation des services de santé et une adhésion massive des communautés aux activités de promotion de la santé. Seulement, on constate que les résultats escomptés par les autorités sanitaires tardent à se réaliser. Le présent article convoque les facteurs liés au contexte socioculturel du district sanitaire, pour analyser le phénomène de la participation communautaire. L’étude s’est déroulée dans le district sanitaire de Tenkodogo, situé dans la région administrative du Centre-est, à environ 190 km de la capitale. Cette étude exclusivement qualitative, a utilisé deux méthodes de collecte : les entretiens individuels et les focus groups. Les participants à l’étude sont les chefs de ménage ( n = 48), les membres des CoGes ( n = 10), les agents de santé ( n = 8) et les agents de santé communautaire ( n = 24). La méthode de l’analyse de contenu a été utilisée pour l’analyse des données. Les résultats de l’étude montrent que plusieurs facteurs socioculturels influencent la dynamique de la participation communautaire dans le district. Ce sont les conditions économiques, la perception négative des services de santé, les inégalités sociales de sexe et d’âge, le faible ancrage social des organisations communautaires, les rivalités inter-villages et les conflits coutumiers. L’étude relève également que les communautés ne perçoivent pas leur implication dans le processus décisionnel des services de santé comme une priorité. Leurs principales attentes s’orientent vers la disponibilité de soins de qualité et à coût réduit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Szabo, Denis. "Vie urbaine et criminalité". III. Aspects de la vie urbaine 9, n.º 1-2 (12 de abril de 2005): 67–81. http://dx.doi.org/10.7202/055393ar.

Texto completo
Resumen
Les transformations quantitatives et qualitatives de la société, depuis la révolution industrielle, ainsi que les changements technologiques subséquents ont affecté profondément la santé mentale et sociale des populations. La délinquance et la criminalité constituent un aspect de ces conflits, de ces tensions et de ces déséquilibres profonds apportés par le nouveau genre de vie et désignés par le terme «milieu technique». Le changement rapide dans les relations humaines, provoquant la rupture de liens considérés comme naturels dans les sociétés rurales caractérisées par des siècles de stabilité relative, est devenu le barème d'un progrès. Ses bénéfices se comptabilisent par degrés de bien-être et son prix, par degrés de pathologie mentale et sociale. Il n'y a donc rien d'étonnant que les premiers sociologues aient accordé une attention particulière à l'étude des relations entre urbanisation et criminalité, leurs œuvres se situant au tournant du siècle. Durkheim et Tarde, pour ne citer que les Français, ont consacré des études importantes à ce phénomène; le concept d'« anomie », élaboré à propos des suicides dans les sociétés industrielles, est devenu une notion-clef dans la criminologie sociologique de la deuxième moitié du XXe siècle, grâce en particulier à des mises au point de Mer ton [15], de Cloward et d'Ohlin [7]. La sociologie a toujours privilégié l'étude des conflits, elle se soucie uniquement de ce qui va mal. Crimes et villes allient conjointement sur une toile de fond: industrialisation; changement technologique rapide; déplacement de populations par migrations massives interrégionales, internationales et intercontinentales; symptômes de la crise accompagnant la gestation d'un monde nouveau. Quelle est la situation au Québec, société où coexistent à bien des égards des caractéristiques typiques de la société pré-industrielle, aux côtés de formes nouvelles qui s'apparentent à la société « technétronique » de demain, comme l'appelle Brzezinski [3] ? Les données sont éparses, les analyses inexistantes, le chantier en friches. Néanmoins, nous esquisserons avec des moyens de fortune quelques données du problème en indiquant ce qui rapproche et ce qui distingue le modèle québécois de celui d'autres sociétés occidentales. Nous envisagerons le problème sous deux angles complémentaires : les relations entre l'urbanisation et la criminalité en termes statistiques à partir de bases régionales; quelques caractéristiques quantitatives et qualitatives de la criminalité à l'intérieur de l'espace urbain.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Gizzi, Chiara. "Open Licensing et patrimoine." Informationswissenschaft: Theorie, Methode und Praxis 6, n.º 1 (9 de julio de 2020): 150–81. http://dx.doi.org/10.18755/iw.2020.8.

Texto completo
Resumen
Openness ‘ouverture’ est l’un des mots clé de l’époque numérique. Issu du milieu informatique, où l’utilisation massive peut être associée à des monopoles distorsifs du marché, ce concept façonne l’action des institutions culturelles en train de mettre en place des politiques adaptées au partage et à l’accès au patrimoine tout en prenant en compte les possibilités offertes par les moyens techniques, leur durabilité et le respect des droits. En effet, si la démocratisation et la transparence sont mises en avant, ne sont pourtant pas caduques les obligations de tutelle des droits des personnes (droit d’auteur, protection des données personnelles – y inclus le droit à l’image) ; bien au contraire : le contexte numérique a poussé à une adaptation encore en cours du cadre légal. Dans la pratique, on peut facilement constater que souvent les documents nés-numériques, qui seraient déjà adaptés à une diffusion massive, sont consultables seulement sur place et avec des ordinateurs ne permettant aucune forme de téléchargement. Les institutions patrimoniales sont appelées à se positionner et à élaborer une politique qui concilie la mise à disposition, la tutelle des droits et une gestion avisée. Dans ce travail nous faisons état des questions légales et des pratiques de mise à disposition numérique sous le profil des droits d’utilisation et de réutilisation. Notre perspective d’enquête porte sur un champ limité aux collections spéciales (y compris les archives) en bibliothèque et dans ce domaine aux documents textuels et iconographiques publiés ainsi qu’aux inédits. Nous examinons les problématiques posées par le droit d’auteur (et par son évolution récente dans la culture juridique et en général dans la société) et par la protection des droits de la personnalité à la croisée des pratiques bibliothécaires et archivistiques ainsi que les propositions de réforme à l’étude. Une attention particulière comporte l’accessibilité aux reproductions des documents (spécialement des documents uniques) tombés dans le domaine public. Les retours d’expérience et les réflexions actuelles – surtout au niveau européen – dans les institutions patrimoniales montrent les enjeux et les opportunités du changement en cours. En l’absence de contraintes légales externes aux institutions, les choix sont encore plus déterminés par des politiques de numérisation en voie de définition ou de redéfinition. Nous examinons enfin brièvement les projets et la perspective de quelques institutions suisses : l’Universitätsbibliothek Basel, la Zentralbibliothek Zürich (en particulier le projet DigiTUR), les Archives cantonales vaudoises et la Bibliothèque cantonale et universitaire – Lausanne.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Données massives – Gestion"

1

Dia, Amadou Fall. "Filtrage sémantique et gestion distribuée de flux de données massives". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS495.

Texto completo
Resumen
Notre utilisation quotidienne de l’Internet et des technologies connexes génère, de manière continue et à des vitesses rapides et variables, de grandes quantités de données hétérogènes issues des réseaux de capteurs, des logs de moteurs de recherches génériques ou spécialisés, des données de sites de contenu multimédia, des données de mesure de stations météorologiques, de la géolocalisation, des applications IoT (l’Internet des objets), etc. Traiter de telles données dans les bases de données conventionnelles (Systèmes de Gestion de Bases de Données Relationnelles) peut être très coûteux en ressources temporelles et mémoires. Pour répondre efficacement aux besoins et aider à la prise de décision, ces flots d’informations nécessitent des traitements en temps réel. Les Systèmes de Gestion de Flux de Données (SGFDs) posent et évaluent des requêtes sur les données récentes d’un flux dans des structures appelées fenêtre. Les données en entrée des SGFDs sont de différents formats bruts tels que CSV, XML, RSS, ou encore JSON. Ce verrou d’hétérogénéité émane de la nature des flux de données et doit être levé. Pour cela, plusieurs groupes de recherche ont bénéficié des avantages des technologies du web sémantique (RDF et SPARQL) en proposant des systèmes de traitement de flux de données RDF appelés RSPs. Cependant, la volumétrie des données, le débit d’entrée élevé, les requêtes concurrentes, le croisement des flux RDF à de larges volumes de données stockées et les calculs coûteux baissent considérablement les performances de ces systèmes. Il faut prévoir une nouvelle approche de réduction de la charge de traitement des flux de données RDF. Dans cette thèse, nous proposons plusieurs solutions pour réduire la charge de traitement de flux de données en mode centralisé. Une approche d’échantillonnage à la volée de flux de graphes RDF est proposée afin de réduire la charge de données et du traitement des flux tout en préservant les liens sémantiques. Cette approche est approfondie en adoptant une méthode de résumé orienté graphe pour extraire des graphes RDF les informations les plus pertinentes en utilisant des mesures de centralité issues de l’Analyse des Réseaux Sociaux. Nous adoptons également un format compressé des données RDF et proposons une approche d’interrogation de données RDF compressées sans phase de décompression. Pour assurer une gestion parallèle et distribuée des flux de données, le travail présenté propose deux solutions supplémentaires de réduction de la charge de traitement en mode distribué : un moteur de traitement parallèle et distribué de flux de graphes RDF et une approche de traitement optimisé des opérations de croisement entre données statiques et dynamiques sont présentés
Our daily use of the Internet and related technologies generates, at a rapid and variable speeds, large volumes of heterogeneous data issued from sensor networks, search engine logs, multimedia content sites, weather forecasting, geolocation, Internet of Things (IoT) applications, etc. Processing such data in conventional databases (Relational Database Management Systems) may be very expensive in terms of time and memory storage resources. To effectively respond to the needs of rapid decision-making, these streams require real-time processing. Data Stream Management Systems (SGFDs) evaluate queries on the recent data of a stream within structures called windows. The input data are different formats such as CSV, XML, RSS, or JSON. This heterogeneity lock comes from the nature of the data streams and must be resolved. For this, several research groups have benefited from the advantages of semantic web technologies (RDF and SPARQL) by proposing RDF data streams processing systems called RSPs. However, large volumes of RDF data, high input streams, concurrent queries, combination of RDF streams and large volumes of stored RDF data and expensive processing drastically reduce the performance of these systems. A new approach is required to considerably reduce the processing load of RDF data streams. In this thesis, we propose several complementary solutions to reduce the processing load in centralized environment. An on-the-fly RDF graphs streams sampling approach is proposed to reduce data and processing load while preserving semantic links. This approach is deepened by adopting a graph-oriented summary approach to extract the most relevant information from RDF graphs by using centrality measures issued from the Social Networks Analysis. We also adopt a compressed format of RDF data and propose an approach for querying compressed RDF data without decompression phase. To ensure parallel and distributed data streams management, the presented work also proposes two solutions for reducing the processing load in distributed environment. An engine and parallel processing approaches and distributed RDF graphs streams. Finally, an optimized processing approach for static and dynamic data combination operations is also integrated into a new distributed RDF graphs streams management system
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques". Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Texto completo
Resumen
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes". Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Texto completo
Resumen
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Baron, Benjamin. "Transport intermodal de données massives pour le délestage des réseaux d'infrastructure". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066454/document.

Texto completo
Resumen
Dans cette thèse, nous exploitons la mobilité des véhicules pour créer un médium de communication ad hoc utile pour déployer des services connectés. Notre objectif est de tirer partie des trajets quotidiens effectués en voiture ou en transport en commun pour surmonter les limitations des réseaux de données tels que l’Internet. Dans une première partie, nous profitons de la bande passante que génèrent les déplacements de véhicules équipés de capacités de stockage pour délester en masse l’Internet d’une partie de son trafic. Les données sont détournées vers des équipements de stockage appelés points de délestage installés aux abords de zones où les véhicules s’arrêtent habituellement, permettant ainsi de relayer les données entre véhicules jusqu'au point de délestage suivant où elles pourront éventuellement être déchargées. Nous proposons ensuite deux extensions étendant le concept de point de délestage selon deux directions dans le contexte de services reposant toujours la mobilité des véhicules. Dans la première extension, nous exploitons les capacités de stockage des points de délestage pour concevoir un service de stockage et partage de fichiers offert aux passagers de véhicules. Dans la seconde extension, nous dématérialisons les points de délestage en zones géographiques pré-définies où un grand nombre de véhicules se rencontrent suffisamment longtemps pour transférer de grandes quantités de données. L’évaluation des performances des différents travaux menés au cours de cette thèse montrent que la mobilité inhérente aux entités du quotidien permet la fourniture de services innovants avec une dépendance limitée vis-à-vis des réseaux de données traditionnels
In this thesis, we exploit the daily mobility of vehicles to create an alternative transmission medium. Our objective is to draw on the many vehicular trips taken by cars or public transports to overcome the limitations of conventional data networks such as the Internet. In the first part, we take advantage of the bandwidth resulting from the mobility of vehicles equipped with storage capabilities to offload large amounts of delay-tolerant traffic from the Internet. Data is transloaded to data storage devices we refer to as offloading spots, located where vehicles stop often and long enough to transfer large amounts of data. Those devices act as data relays, i.e., they store data it is until loaded on and carried by a vehicle to the next offloading spot where it can be dropped off for later pick-up and delivery by another vehicle. We further extend the concept of offloading spots according to two directions in the context of vehicular cloud services. In the first extension, we exploit the storage capabilities of the offloading spots to design a cloud-like storage and sharing system for vehicle passengers. In the second extension, we dematerialize the offloading spots into pre-defined areas with high densities of vehicles that meet long enough to transfer large amounts of data. The performance evaluation of the various works conducted in this thesis shows that everyday mobility of entities surrounding us enables innovative services with limited reliance on conventional data networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Baron, Benjamin. "Transport intermodal de données massives pour le délestage des réseaux d'infrastructure". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066454.

Texto completo
Resumen
Dans cette thèse, nous exploitons la mobilité des véhicules pour créer un médium de communication ad hoc utile pour déployer des services connectés. Notre objectif est de tirer partie des trajets quotidiens effectués en voiture ou en transport en commun pour surmonter les limitations des réseaux de données tels que l’Internet. Dans une première partie, nous profitons de la bande passante que génèrent les déplacements de véhicules équipés de capacités de stockage pour délester en masse l’Internet d’une partie de son trafic. Les données sont détournées vers des équipements de stockage appelés points de délestage installés aux abords de zones où les véhicules s’arrêtent habituellement, permettant ainsi de relayer les données entre véhicules jusqu'au point de délestage suivant où elles pourront éventuellement être déchargées. Nous proposons ensuite deux extensions étendant le concept de point de délestage selon deux directions dans le contexte de services reposant toujours la mobilité des véhicules. Dans la première extension, nous exploitons les capacités de stockage des points de délestage pour concevoir un service de stockage et partage de fichiers offert aux passagers de véhicules. Dans la seconde extension, nous dématérialisons les points de délestage en zones géographiques pré-définies où un grand nombre de véhicules se rencontrent suffisamment longtemps pour transférer de grandes quantités de données. L’évaluation des performances des différents travaux menés au cours de cette thèse montrent que la mobilité inhérente aux entités du quotidien permet la fourniture de services innovants avec une dépendance limitée vis-à-vis des réseaux de données traditionnels
In this thesis, we exploit the daily mobility of vehicles to create an alternative transmission medium. Our objective is to draw on the many vehicular trips taken by cars or public transports to overcome the limitations of conventional data networks such as the Internet. In the first part, we take advantage of the bandwidth resulting from the mobility of vehicles equipped with storage capabilities to offload large amounts of delay-tolerant traffic from the Internet. Data is transloaded to data storage devices we refer to as offloading spots, located where vehicles stop often and long enough to transfer large amounts of data. Those devices act as data relays, i.e., they store data it is until loaded on and carried by a vehicle to the next offloading spot where it can be dropped off for later pick-up and delivery by another vehicle. We further extend the concept of offloading spots according to two directions in the context of vehicular cloud services. In the first extension, we exploit the storage capabilities of the offloading spots to design a cloud-like storage and sharing system for vehicle passengers. In the second extension, we dematerialize the offloading spots into pre-defined areas with high densities of vehicles that meet long enough to transfer large amounts of data. The performance evaluation of the various works conducted in this thesis shows that everyday mobility of entities surrounding us enables innovative services with limited reliance on conventional data networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Gueye, Ndeye. "Une démarche de gestion stratégique et opérationnelle du changement dans le contexte de l'exploitation avancée de données massives internes aux organisations". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/30367.

Texto completo
Resumen
L’objectif de ce mémoire est d’élaborer une démarche de gestion du changement destinée aux organisations qui souhaitent mettre en place les transformations nécessaires pour tirer parti des techniques d’exploitation avancée de données massives. Le domaine de transformation choisi dans le cadre de ce mémoire est l’exploitation des données internes à une organisation pour développer une maturité technologique et organisationnelle, notamment en ce qui concerne l’orientation-client de son modèle d’affaires. Cette évolution de maturité a pour but de suivre la transformation de la société actuelle, fortement influencée par le mouvement Big Data. La démarche proposée s’adresse à des organisations dont la maturité technologique et organisationnelle est éloignée de celle des compagnies leaders de cette transformation « digitale ». Nous proposons un cadre méthodologique stratégique et opérationnel permettant aux organisations d'effectuer les transformations de culture, d'organisation, de gestion et d'adoption de techniques pour se lancer dans l'exploitation avancée de leurs données internes qui sont en forts volumes et mal structurées. L'application pratique de notre cadre méthodologique est illustrée dans le cas d'une grande compagnie d'assurance canadienne sur une période de deux ans. Nous avons également réalisé un projet pilote de 9 mois visant à tester la phase de mise en oeuvre de la gestion stratégique du changement en exploitant les données-clients internes à cette compagnie d’assurance. Nous avons élaboré, raffiné et testé ces démarches en plusieurs itérations afin de proposer des méthodes détaillées, illustrées par des actions qui conduisent à des résultats concrets et qui mettent en évidence certains enjeux ou difficultés liés à l’adoption de ce type d’approches. À l’issu de notre projet, la démarche proposée a été adoptée par la compagnie à des fins d’opérationnalisation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Garmaki, Mahda. "La capacité des "Big Data Analytics" et la création de valeur : l’effet médiateur de l’apprentissage organisationnel sur la performance des entreprises". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE018.

Texto completo
Resumen
Le but de cette recherche qui est fondée sur la théorie enracinée (Grounded theory) est de savoir comment grâce à l'utilisation de Big Data Analytics (BDA) le monde de l'entreprise acquiert sur la longue durée plus de valeur, de compétitivité et de performance. L'analyse de Big Data a dramatiquement influencé le monde de l'entreprise, sa performance et sa compétitivité. Dans cette optique, BDA est devenue une pratique commune qui génère en utilisant certaines approches adaptées des solutions très innovantes. Malgré les grandes discutions autour de BDA, il reste très vague de savoir, dans quelles conditions l'investissement dans BDA crée des valeurs durables pour améliorer la performance de l'entreprise. En utilisant la théorie enracinée classique, cette thèse a conduit plusieurs entretiens avec 22 cadres d'entreprise supérieurs des différentes entreprises. En utilisant une théorie enracinée, la capacité de BDA a été conceptualisée comme l’argument central, qui permet aux entreprises de tirer bénéfices de BDA, de transformer les affaires dans une approche d'accès aux données et par conséquence d'améliorer la performance avec le temps. L'élément clé des résultats de la théorie enracinée met l'accent sur la capacité à utiliser BDA afin de créer des valeurs concrètes. Cette recherche par la théorie enracinée va contribuer à la création de valeurs et la numérisation à travers plusieurs approches :1) Alors que l'approche commune de BDA se concentre sur la collecte de données ou l'investissement dans les technologies, les résultats indiquent que diverses dimensions (ressources et capacités internes et externes) doivent contribuer conjointement à construire la capacité globale de BDA. 2) En outre, ces dimensions et leurs propriétés créent le réseau entrelacé et la capacité de BDA est incomplète en l'absence de dimension individuelle ou de leurs propriétés. 3) étant donné que l’objectif principal de cette recherche est de souligner le mécanisme de création de valeur par BDA, l'amélioration de l'apprentissage organisationnel a été présentée comme la "valeur cachée" de la capacité de BDA, ce qui est la compétitivité dynamique. Elle développe par conséquence des avantages compétitifs durables, 4) Dans l'ère du numérique, BDA est le principal atout numérique et levier numérique, dans cette lumière, la capacité BDA développe la transformation numérique en fournissant les capacités requises. En utilisant l'approche fondée sur les ressources (resource based-view), ressource basée sur la connaissance (knowledge-based view) et la capacité dynamique (dynamic capability), le modèle conceptuel a été proposé comme la combinaison de différentes ressources et l'aptitude de créer la capacité de BDA à améliore la performance de l'entreprise directement, ainsi que, indirectement par l'impact intermédiaire de l'apprentissage organisationnel
The purpose of this grounded theory research is to explore ‘to which extent firms can achieve value from big data analytics (BDA), in order to improve firm performance’. BDA is dramatically influencing the way firms perform and compete within the digital era. In this light, BDA has become the trending issue that generates innovative solutions and valuable insights through predictive approach. Despite the hype surrounding BDA value creation, it has not fully understood the features drive value and sustain competitive advantage from BDA. Using the classic grounded theory, this thesis conducted interviews with twenty-two executives from different firms. Through substantive theory, BDA capability is conceptualized as the core competency, which enables firms to accomplish value from BDA, transform the business into the data-driven approach, and subsequently enhance firm performance over-time. The core contribution of this grounded theory research focuses on capability building to implement and manipulate BDA. The findings of this study contribute to the knowledge of BDA value creation and digitalization through the following discussions: 1) while the conventional approach about BDA focuses data collection or investment on technologies, the findings indicate the various dimensions (internal and external resources and capabilities) should jointly contribute to building the overall BDA,2) furthermore, these dimensions and their properties create the integrative network, which is incomplete in the absence of individual dimension or their properties, 3) To identify the variables that are influenced by BDA capability, enhancing organizational learning is introduced as the “hidden value” of BDA capability, which is the dynamic process, and consequently develops sustained competitive advantage, 4) Within the digital era, BDA is the primary digital asset, as well as, digital lever. In this light, BDA capability fosters digital transformation through providing prerequisite capabilities, 5) Drawing resource-based view, knowledge-based view, and dynamic capability the conceptual model of this research is addressed through the combination of different resources (tangible intangible and personnel-based resources) and capabilities.The conceptual model demonstrates the direct effect of BDA capability on firm performance, as well as, the indirect effect that is mediated by organizational learning
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Barry, Mariam. "Adaptive Scalable Online Learning for Handling Heterogeneous Streaming Data in Large-Scale Banking Infrastructure". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAT006.

Texto completo
Resumen
L'intelligence artificielle (IA) est une technique puissante pour créer de la valeur et améliorer la prise de décisions. Les volumes de données générés devraient connaître une croissance exponentielle, avec des projections dépassant les 2 000 zettaoctets d'ici 2035, soulignant l'importance de l'apprentissage incrémental et des modèles scalables pour le ”Big ` Data”. L'apprentissage et l'entraînement continus des modèles d'IA, connus sous le nom de Streaming ` Machine Learning (SML), sont des approches efficaces permettant de construire et de mettre à jour des modèles d'intelligence artificielle au fur et à mesure de l'arrivée de nouvelles données, sans avoir besoin de remplacer périodiquement le modèle complet. La détection des changements de comportement en temps réel est une solution pertinente pour détecter des évènements critiques et à diverses applications telles que la détection de fraudes, de cyberattaques ou de déviations dans les systèmes d'information. Les travaux de cette recherche visent donc à résoudre les défis algorithmiques et d'infrastructure liés aux modèles d'IA à apprentissage continu et à l'industrialisation des modèles dynamiques sur des flux de données issus de sources diverses. Les contributions de cette thèse incluent StreamFlow pour résumer des flux de données massives, Stream2Graph pour construire et mettre à jour dynamiquement des graphes de connaissances, et StreamChange pour détecter et expliquer des déviations ou changements de comportement en temps réel. Les expériences sur des données réelles démontrent que notre modèle StreamChange détecte mieux les changements graduels et brusques que les modèles de l'état de l'art. Enfin, la thèse introduit une architecture, StreamM- ` LOps, pour l'apprentissage en ligne et l'industrialisation des modèles, évaluée sur des données dynamiques contenant des millions de variables pour la détection en ligne d'évènements malveillants. Nous concluons par un retour d'expérience sur la mise en production et la maintenance des modèles évolutifs (SML) pour des applications de temps réel en banque
Artificial Intelligence (AI) is a powerful tool to extract valuable insights for decision-making. However, learning from heterogeneous and unstructured streaming data presents a multitude of challenges that this research aims to tackle. The creation of big data is projected to experience exponential growth, with expectations to surpass 2,000 zettabytes by the year 2035. Such Big Data highlights the importance of efficient, incremental, and adaptive models. Online Learning, known as Streaming Machine Learning (SML), is a dynamic technique for building and updating learning models as new data arrive, without the need for periodic complete model replacement. It is the most efficient technique for big data stream learning. The change detection task is a proactive way to detect and prevent critical events such as cyber-attacks, fraud detection, or IT incidents in an online fashion. The research conducted during this thesis aims to develop adaptive and scalable online machine-learning solutions to learn from heterogeneous streaming data that can be operationalized with large-scale infrastructures, particularly in the banking sector. This Ph.D. thesis delves into algorithmic and infrastructure challenges related to continuous training and serving online machine learning over high-velocity streaming data from diverse sources, specifically focusing on large-scale IT infrastructures (AIOps). Thesis contributions include techniques like StreamFlow for summarizing information from big data streams, Stream2Graph for dynamically building and updating knowledge graphs for batch and online learning tasks, and StreamChange, an efficient and explainable online change detection model. Evaluation results on real-world open data and industrial data demonstrate performance improvements in learned models. StreamChange surpasses state-ofthe-art techniques in detecting gradual and abrupt changes. Additionally, the thesis introduces a conceptual framework, StreamMLOps, for scaling and serving online machine learning in real-time without pausing the inference pipeline. This framework showcases the effectiveness of the proposed MLOps pipeline on a feature-evolving dataset with millions of dimensions for malicious event detection tasks. Finally, we share lessons learned regarding Streaming Machine Learning systems, AI at scale, and online model management in large-scale banking, with a focus on streaming data and real-time applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Brahem, Mariem. "Optimisation de requêtes spatiales et serveur de données distribué - Application à la gestion de masses de données en astronomie". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV009/document.

Texto completo
Resumen
Les masses de données scientifiques générées par les moyens d'observation modernes, dont l’observation spatiale, soulèvent des problèmes de performances récurrents, et ce malgré les avancées des systèmes distribués de gestion de données. Ceci est souvent lié à la complexité des systèmes et des paramètres qui impactent les performances et la difficulté d’adapter les méthodes d’accès au flot de données et de traitement.Cette thèse propose de nouvelles techniques d'optimisations logiques et physiques pour optimiser les plans d'exécution des requêtes astronomiques en utilisant des règles d'optimisation. Ces méthodes sont intégrées dans ASTROIDE, un système distribué pour le traitement de données astronomiques à grande échelle.ASTROIDE allie la scalabilité et l’efficacité en combinant les avantages du traitement distribué en utilisant Spark avec la pertinence d’un optimiseur de requêtes astronomiques.Il permet l'accès aux données à l'aide du langage de requêtes ADQL, couramment utilisé.Il implémente des algorithmes de requêtes astronomiques (cone search, kNN search, cross-match, et kNN join) en exploitant l'organisation physique des données proposée.En effet, ASTROIDE propose une méthode de partitionnement des données permettant un traitement efficace de ces requêtes grâce à l'équilibrage de la répartition des données et à l'élimination des partitions non pertinentes. Ce partitionnement utilise une technique d’indexation adaptée aux données astronomiques, afin de réduire le temps de traitement des requêtes
The big scientific data generated by modern observation telescopes, raises recurring problems of performances, in spite of the advances in distributed data management systems. The main reasons are the complexity of the systems and the difficulty to adapt the access methods to the data. This thesis proposes new physical and logical optimizations to optimize execution plans of astronomical queries using transformation rules. These methods are integrated in ASTROIDE, a distributed system for large-scale astronomical data processing.ASTROIDE achieves scalability and efficiency by combining the benefits of distributed processing using Spark with the relevance of an astronomical query optimizer.It supports the data access using the query language ADQL that is commonly used.It implements astronomical query algorithms (cone search, kNN search, cross-match, and kNN join) tailored to the proposed physical data organization.Indeed, ASTROIDE offers a data partitioning technique that allows efficient processing of these queries by ensuring load balancing and eliminating irrelevant partitions. This partitioning uses an indexing technique adapted to astronomical data, in order to reduce query processing time
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Hatia, Saalik. "Leveraging formal specification to implement a database backend". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS137.

Texto completo
Resumen
Conceptuellement, un système de stockage de base de données n'est qu'une correspondance entre des clés et des valeurs. Cependant, pour offrir des performances élevées et une fiabilité, une base de donnée moderne est un système complexe et concurrent, rendant le système prône aux erreurs. Cette thèse relate notre parcours, allant de la spécification formelle d'une base de données à son implémentation. La spécification est courte et non ambigüe, et aide à raisonner sur la justesse. La lecture du pseudocode de la spécification fournit une base rigoureuse pour une implémentation. La spécification décrit la couche de stockage comme une mémoire partagée transactionnelle simple, avec deux variantes (au comportement équivalent), basées sur une map et un journal. Nous implémentons ces deux variantes en restant fidèles à notre spécification. Nous spécifions les fonctionnalités d'une base de données moderne, ayant un système de journalisation avec des snapshots et de la troncature, comme une composition des deux variants. La spécification de cette dernière est particulièrement simple. Finalement, nous présentons une évaluation expérimentale avec des performances qui sont acceptables pour une implémentation qui est correcte
Conceptually, a database storage backend is just a map of keys to values. However, to provide performance and reliability, a modern store is a complex, concurrent software system, opening many opportunities for bugs. This thesis reports on our journey from formal specification of a store to its implementation. The specification is terse and unambiguous, and helps reason about correctness. Read as pseudocode, the specification provides a rigorous grounding for implementation. The specification describes a store as a simple transactional shared memory, with two (behaviourally equivalent) variants, map- and journal-based. We implement these two basic variants verbatim in Java. We specify the features of a modern store, such as a write-ahead log with checkpointing and truncation, as a dynamic composition of instances of the two basic variants. The specification of correct composition is particularly simple. Our experimental evaluation of an implementation has acceptable performance, while our rigorous methodology increases confidence in its correctness
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Données massives – Gestion"

1

Meier, Patrick. Digital Humanitarians: How Big Data Is Changing the Face of Humanitarian Response. Taylor & Francis Group, 2015.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Meier, Patrick. Digital Humanitarians. Taylor & Francis Group, 2015.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Meier, Patrick. Digital Humanitarians: How Big Data Is Changing the Face of Humanitarian Response. Taylor & Francis Group, 2015.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Meier, Patrick. Digital Humanitarians: How Big Data Is Changing the Face of Humanitarian Response. Taylor & Francis Group, 2015.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Crickard, Paul. Data Engineering with Python: Work with Massive Datasets to Design Data Models and Automate Data Pipelines Using Python. Packt Publishing, Limited, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Données massives – Gestion"

1

COHEN-BOULAKIA, Sarah y Frédéric LEMOINE. "Workflows d’intégration de données bioinformatiques". En Intégration de données biologiques, 63–97. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch3.

Texto completo
Resumen
Les traitements de données sont au cœur de nombreux domaines de la Bioinformatique. Ils consistent en l’enchaînement d’un grand nombre d’outils bioinformatiques et manipulent des données massives et diverses. Ce chapitre décrit les difficultés d’implémentation et d’exécution de ces traitements, introduit les systèmes de gestion de workflows comme élément de solution et souligne les problèmes de recherche encore ouverts.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Informes sobre el tema "Données massives – Gestion"

1

McAdams-Roy, Kassandra, Philippe Després y Pierre-Luc Déziel. La gouvernance des données dans le domaine de la santé : Pour une fiducie de données au Québec ? Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, febrero de 2023. http://dx.doi.org/10.61737/nrvw8644.

Texto completo
Resumen
Promesses technologiques et protection des intérêts personnels à l’ère des données massives : Comment trouver un juste milieu ? Les nouvelles technologies numériques ont connu d’importants avancements au cours des dernières années. Étant à l’aube de l’ère de l’intelligence artificielle, ces dernières ont créé une soif inédite pour les données de toutes sortes. Bien que ces technologies soient prometteuses de nombreuses améliorations à nos vies quotidiennes ainsi qu’à plusieurs domaines telle la médecine, le droit, et la pharmacologie, elles engendrent aussi de nombreuses préoccupations. Ainsi, il y a actuellement un effort en cours pour trouver des solutions qui sauront mieux encadrer ces nouvelles technologies et protéger les intérêts individuelles et collectifs, sans toutefois nuire à l’essor de leur plein potentiel. La fiducie de données fut identifiée comme une telle solution. Prônée pour sa versatilité et sa flexibilité, elle est présentée comme un outil qui permettrait de trouver un juste milieu entre innovation et protection des intérêts individuels dans le cadre d’une stratégie de gouvernance responsable des données. Plusieurs sont ainsi à étudier son applicabilité dans différents secteurs et différentes juridictions et elle est l’objet de la présente étude. Cette étude s’intéresse spécifiquement à savoir si une fiducie de données pourrait être établie au Québec pour la gestion des données dans le domaine de la santé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Martineau, Joé T., Frédérique Romy Godin, Janine Badr, Alexandre Castonguay, Martin Cousineau, Philippe Després, Aude Motulsky, Jean Noel Nikiema, Cécile Petitgand y Catherine Régis. Enjeux éthiques de l’IA en santé - Fiche 4. Observatoire international sur les impacts sociétaux de l'IA et du numérique, marzo de 2022. http://dx.doi.org/10.61737/fspn5441.

Texto completo
Resumen
La présente fiche propose une revue des différents enjeux éthiques liés au développement et à l’utilisation des technologies d’intelligence artificielle dans le milieu de la santé, en trois parties. D’abord, nous aborderons les enjeux éthiques liés à l’exploitation de données massives nécessaires à l’entrainement des algorithmes de l’IA. Ensuite, nous présenterons les principaux enjeux éthiques liés au développement et à l’utilisation des SIA en santé, en abordant la façon dont ces systèmes impactent nos vies ainsi que l’environnement physique et social dans lequel nous vivons. Nous présenterons finalement les principales initiatives nationales et internationales en matière d’éthique de l’IA et de la gestion des données, fruits et reflets d’une réflexion globale sur ces sujets. Ces initiatives ont notamment proposé des lignes directrices et principes normatifs servant de guides pour le développement de technologies de l’IA éthiques et responsables Il s'agit de la quatrième fiche d'une série de 4 développée dans le cadre d'un mandat réalisé pour le Ministère de la Santé et des Services sociaux du Québec (MSSS).
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía