Academic literature on the topic 'Données massives – Prise de décision'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Données massives – Prise de décision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Données massives – Prise de décision"

1

Fujiki, Kenji, and Mélanie Laleau. "Une approche géographique pour spatialiser les besoins en hébergements d'urgence en situation de crise : une étude appliquée au cas d'une évacuation massive provoquée par une crue majeure de la seine en région francilienne." La Houille Blanche, no. 3-4 (October 2019): 75–83. http://dx.doi.org/10.1051/lhb/2019043.

Full text
Abstract:
Avec jusqu'à 1 million de personnes inondées, et 6,5 millions d'habitants privés d'eau ou d'électricité, les autorités régionales s'interrogent sur la capacité à mener à bien une évacuation de l'agglomération francilienne en cas de crue exceptionnelle de la Seine. L'étude présentée ici vise à répondre à une partie de ces interrogations, en proposant un outil d'aide à la décision sous SIG pour identifier de façon spatialisée les besoins de prise en charge dans l'hébergement d'urgence des populations sinistrées, en cas d'évacuation massive. La méthodologie se fonde sur la combinaison de deux indices, agrégés à l'échelle du bâti : (1) un « indice d'exposition », qui synthétise des variables relatives à l'aléa et aux impacts physiques induits par ce dernier. Cet indice est constitué à partir d'une réflexion sur la stratégie d'évacuation envisagée par la Préfecture de Police, coordinatrice de la gestion de crise à l'échelle régionale ; (2) un « indice de susceptibilité à l'auto-hébergement », qui vise à représenter la capacité d'une population donnée à trouver un hébergement par ses propres moyens, chez des proches notamment, en synthétisant diverses variables sociales et démographiques. Ces variables sont identifiées grâce à un état de l'art ad hoc, constitué à partir de retours d'expérience internationaux d'évacuations massives passées.
APA, Harvard, Vancouver, ISO, and other styles
2

Jullian-Desayes, Ingrid, Marie Joyeux-Faure, Sébastien Baillieul, Rita Guzun, Renaud Tamisier, and Jean-Louis Pepin. "Quelles perspectives pour le syndrome d’apnées du sommeil et la santé connectée ?" L'Orthodontie Française 90, no. 3-4 (September 2019): 435–42. http://dx.doi.org/10.1051/orthodfr/2019019.

Full text
Abstract:
Introduction : La santé connectée est en plein essor et peut être envisagée à partir de différentes perspectives notamment dans le syndrome d’apnées du sommeil (SAS). Matériels et méthodes : L’objet de cette revue est de montrer comment toutes ces dimensions de la santé connectée s’appliquent déjà à la prise en charge du SAS et de ses comorbidités. Résultats : Tout d’abord, elle permet au patient une meilleure compréhension et une meilleure évaluation de sa santé. Elle facilite également sa prise en charge en lui permettant de devenir acteur de son parcours de soins. Pour les professionnels de santé, les outils de santé connectée permettent de mettre en place de nouvelles procédures de diagnostic, de suivi des patients ambulatoires et de construire entre professionnels de santé et patients des décisions partagées. Enfin pour les chercheurs, l’e-santé génère des données massives facilitant l’acquisition de connaissances en situation de vie réelle, le développement de nouvelles méthodologies d’études cliniques, plus rapides, moins chères et tout aussi fiables. Discussion : Toutes ces considérations s’appliquent déjà dans le contexte du SAS, que ce soit concernant les traitements proposés comme la gestion des comorbidités associées et l’implication du patient dans son parcours de soins.
APA, Harvard, Vancouver, ISO, and other styles
3

Somé, Mwinisso Géraldine, Hervé Hien, Ziemlé Clément Méda, Bernard Ilboudo, Ali Sié, Mamadou Bountogo, Moubassira Kagoné, et al. "Utilisation des données probantes pour la prise de décision en santé publique au Burkina Faso." Santé Publique 36, no. 6 (December 18, 2024): 99–108. https://doi.org/10.3917/spub.246.0099.

Full text
Abstract:
Introduction : La prise de décision éclairée par les données probantes est une stratégie efficace pour répondre aux besoins de santé des populations. Cependant au Burkina Faso, le concept d’utilisation des données probantes pour la prise de décision rencontre des difficultés. La présente étude avait pour objectif d’identifier les obstacles à l’utilisation des données probantes pour la prise de décision au ministère de la Santé et de l’Hygiène Publique du Burkina Faso. Méthodes : Il s’est agi d’une étude qualitative qui a consisté à la réalisation d’entretiens individuels semi-structurés avec des informateurs clés. Une analyse thématique a été réalisée à l’aide du logiciel de traitement de données qualitatives NVivo 12. Résultats : Les principaux obstacles à l’utilisation des données probantes pour la prise de décision étaient : l’insuffisance de financement pour la production et la valorisation des résultats de recherche, la qualité insuffisante des données, les difficultés d’accès aux résultats, l’insuffisance d’interaction entre les acteurs, l’inadéquation entre les besoins du ministère et les recherches menées, les conflits d’intérêts, l’influence des partenaires et le format inadéquat de présentation des résultats de recherche. Conclusion : Cette étude a permis de mettre en évidence les défis liés à l’utilisation des données probantes pour la prise de décision en santé publique au sein du ministère de la Santé et de l’Hygiène Publique du Burkina Faso. Traiter ces obstacles pourrait contribuer à améliorer la prise de décision éclairée par les données probantes pour soutenir les interventions de santé publique favorables à la santé des populations.
APA, Harvard, Vancouver, ISO, and other styles
4

IFOURAH, Hocine, and Tayeb CHABI. "information comptable et financière face à la prise de décision dans les entreprises Algériennes." Journal of Academic Finance 11, no. 1 (June 30, 2020): 104–21. http://dx.doi.org/10.59051/joaf.v11i1.394.

Full text
Abstract:
L’objectif de cette recherche empirique est d’étudier l’influence de l’information comptable et financière sur la prise de décision dans les entreprises Algériennes. Pour ce faire, nous avons élaboré un questionnaire, afin d’essayer d’évaluer les relations entre les différentes variables selon la méthode « Micmac ». Les résultats de notre enquête nous ont permis, de remplir la matrice des influences directes données, de construire un système de variables selon la vision systémique, de visualiser les résultats sur des graphes et des plans, ainsi d’analyser et de classer les supports d’informations comptables et financières clés à la prise de décision. Enfin, une interprétation a été faite à chaque étape du résultat pour expliquer l’influence directe et indirecte de ces informations sur la prise de décision dans les entreprises étudiées. Les résultats de la présente recherche nous ont, permis tout, de même de conclure globalement que l’information comptable et financière a une influence directe et indirecte à la prise de décision et à la production des données comptables.
APA, Harvard, Vancouver, ISO, and other styles
5

Temprado, Jean-Jacques. "Prise de décision en sport : modalités d'études et données actuelles." STAPS 10, no. 19 (1989): 53–67. http://dx.doi.org/10.3406/staps.1989.1523.

Full text
Abstract:
Dans beaucoup d’activités sportives, l’efficacité dépend de la capacité des acteurs de décider rapidement de la meilleure réponse avant de l’exécuter. La notion de décision se pose donc comme essentielle, tant pour l’enseignant sportif que pour le chercheur. On examine ici la légitimité et le sens que l’on peut attribuer à la notion de «Prise de Décision» en sport. Deux pôles sont proposés : un phénoménologique organisé autour de l’analyse des activités sportives et de leur logique décisionnelle et un centré sur l’acteur en situation en tant que système de traitement de l’information. Nous abordons également le problème des rapports terrain-laboratoire pour l’étude des processus cognitifs et des comportements décisionnels sportifs. Enfin, on procède à une revue de question en abordant les problèmes actuels, en particulier l’articulation des notions de Préparation et Décision. Le processus de décision est envisagé dans son caractère complexe, intégrant une série d’opérations cognitives pouvant faire l’objet d’ajustements stratégiques.
APA, Harvard, Vancouver, ISO, and other styles
6

CHENARD, Pierre. "L’utilisation de l’information par les cégépiens du secteur général pour leur orientation vers l’université, une étude de sociologie institutionnelle." Sociologie et sociétés 20, no. 1 (September 30, 2002): 71–82. http://dx.doi.org/10.7202/001135ar.

Full text
Abstract:
Résumé A partir des données d'un sondage mené en 1985 auprès d'un échantillon représentatif de 4000 étudiants et étudiantes francophones des cégeps, cet article évalue un ensemble de médias couramment utilisés par les cégépiens pour le choix d'un programme d'études et d'un établissement universitaires. Chaque médium a été évalué par rapport à quatre critères: la fréquence d'utilisation, le degré d'accessibilité perçu, la quantité d'information perçue pertinente pour la prise de décision et l'importance de la source d'information pour la prise d'une décision.
APA, Harvard, Vancouver, ISO, and other styles
7

Légaré, France. "Le partage des décisions en santé entre patients et médecins." Recherche 50, no. 2 (September 21, 2009): 283–99. http://dx.doi.org/10.7202/037958ar.

Full text
Abstract:
Résumé Les nombreuses enquêtes portant sur la population de plusieurs pays industrialisés incluant le Canada indiquent que de plus en plus, dans le contexte des rencontres médecin-patient, les patients désirent participer activement aux décisions portant sur leur santé. Toutefois, ces enquêtes rapportent aussi que ce partage de la décision entre les patients et les médecins n’a pas préséance. Le présent texte donne les raisons expliquant l’intérêt de la population et des décideurs envers la prise de décision partagée. Il introduit les fondements conceptuels de la prise de décision partagée et fait état de quelques travaux empiriques dans ce domaine. À l’aide de données recueillies lors d’une étude descriptive des pratiques médicales en matière de dépistage prénatal du syndrome de Down, il discute la relation médecin-patiente lors de ces rencontres. Enfin, il propose quelques pistes de réflexion pour des recherches futures.
APA, Harvard, Vancouver, ISO, and other styles
8

Besse, Philippe, Céline Castets-Renard, and Aurélien Garivier. "L’IA du Quotidien peut elle être Éthique ?" Statistique et société 6, no. 3 (2018): 9–31. https://doi.org/10.3406/staso.2018.1083.

Full text
Abstract:
Associant données massives (big data) et algorithmes d’apprentissage automatique (machine learning), la puissance des outils de décision automatique suscite autant d’espoir que de craintes. De nombreux textes législatifs européens (RGPD) et français récemment promulgués tentent d’encadrer les usages de ces outils. Laissant de côté les problèmes bien identifiés de confidentialité des données et ceux d’entrave à la concurrence, nous nous focalisons sur les risques de discrimination, les problèmes de transparence et ceux de qualité des décisions algorithmiques. La mise en perspective détaillée des textes juridiques, face à la complexité et l’opacité des algorithmes d’apprentissage, révèle la nécessité d’importantes disruptions technologiques que ce soit pour détecter ou réduire le risque de discrimination ou pour répondre au droit à l’explication. La confiance des développeurs et surtout des usagers (citoyens, justiciables, clients) étant indispensable, les algorithmes exploitant des données personnelles se doivent d’être déployés dans un cadre éthique strict. En conclusion nous listons, pour répondre à cette nécessité, quelques possibilités de contrôle à développer : institutionnel, charte éthique, audit externe attaché à la délivrance d’un label.
APA, Harvard, Vancouver, ISO, and other styles
9

Gnoumou Thiombiano, Bilampoa. "Genre et prise de décision au sein du ménage au Burkina Faso." Articles 43, no. 2 (January 9, 2015): 249–78. http://dx.doi.org/10.7202/1027979ar.

Full text
Abstract:
L’étude examine les facteurs sociodémographiques et économiques qui influencent la participation des femmes à la prise de décision au sein du ménage au Burkina Faso. Les données de l’Enquête démographique et de santé réalisée en 2010 sont exploitées à l’aide d’une régression logistique. Ces données quantitatives sont complétées par des entretiens qualitatifs réalisés en 2011 sur le thème « genre et décision économique au Burkina Faso ». Les résultats montrent que les femmes participent peu aux décisions concernant leurs soins de santé, les achats importants du ménage et les visites aux parents, mais les femmes ayant une activité rémunérée sont susceptibles de décider de la gestion de leurs revenus. La scolarisation, l’exercice d’un travail rémunéré, un âge plus élevé, la résidence en milieu urbain et le niveau de vie élevé du ménage sont des facteurs favorables à la participation de la femme à la prise de décision au sein de son ménage. On note cependant des différences selon le groupe ethnique. Ces résultats suggèrent que la scolarisation croissante des filles en Afrique subsaharienne, l’urbanisation et la participation progressive des femmes au marché du travail contribuent à la modification des rapports de genre au sein des couples et, de façon générale, à l’amélioration du statut social de la femme.
APA, Harvard, Vancouver, ISO, and other styles
10

Cozic, Mikaël. "Anti-réalisme, rationalité limitée et théorie expérimentale de la décision." Social Science Information 48, no. 1 (March 2009): 35–56. http://dx.doi.org/10.1177/0539018408099636.

Full text
Abstract:
L'objet de cet article est de présenter et discuter les objections d'inspiration anti-réaliste (ou instrumentaliste) qui sont adressées au programme de modélisation de la rationalité limitée dans les sciences de la décision, et en particulier dans les sciences économiques. Après avoir reconstruit ces objections dans leurs diverses variantes, nous proposons un argument qui entend contrer de manière constructive la variante que nous appelons comportementale, selon laquelle les modèles de décision ne doivent être évalués qu'en fonction de leur capacité à décrire les comportements individuels. Cet argument repose sur les avancées récentes de la théorie de la décision expérimentale et fait appel à la prise en compte de données cognitives.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Données massives – Prise de décision"

1

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
2

Conort, Paul. "Le Big Data au service de la création : Au-Delà des tensions, le knowledge brokering pour gérer la co-création de valeur à partir des données utilsateur." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX126.

Full text
Abstract:
Pour beaucoup d’entreprises, exploiter efficacement le Big Data pour générer de la valeur reste un défi, en particulier dans les industries créatives. Cette thèse par articles explore l’impact du Big Data sur les projets créatifs, dans l’industrie du jeu vidéo, et examine comment les connaissances issues du Big Data peuvent y être intégrées. En s’appuyant sur deux principaux courants de littérature, celui sur le Big Data et celui sur le knowledge brokering, elle explore comment le Big Data influence les processus de décision et la création de valeur, et met en avant le knowledge brokering (KB) comme un mécanisme facilitant la création et la diffusion de connaissances issues du Big Data entre les acteurs des projets. Le dispositif de recherche s’appuie sur quatre ans d’observations et 57 entretiens semi-directifs au sein des projets créatifs d’une entreprise de jeu vidéo.Le premier article explore les usages du Big Data dans les projets créatifs et les tensions qui en résultent. Trois usages du Big Data sont distingués : aide à la décision, outil d’exploration, et artefact de négociation. Huit tensions organisationnelles sont identifiées autour de trois thèmes: contrôle, coordination et prise de décision. Ces tensions exercent une influence négative sur la créativité, soulignant l’équilibre délicat entre l’utilisation des données et le maintien de la créativité.Le deuxième article décrit le processus d’intégration des analyses du Big Data en trois étapes : anticipation, analyse et alignement. L’étape d’anticipation consiste à mettre à jour les besoins d’analyse en fonction de l’évolution de l’environnement et des besoins du projet. L’étape d’analyse reformule les questions des acteurs et les priorise avant d’utiliser un mode de raisonnement adapté. Enfin, l’étape d’alignement permet aux acteurs de converger informellement vers une interprétation commune des analyses (grâce à l’échange de connaissances tacites) et de diffuser un récit des décisions prises à partir des données. Des intermédiaires émergent alors pour faciliter les relations entre les parties prenantes.Le troisième article examine les conditions d’émergence du KB et ses effets sur la collaboration entre les acteurs du Big Data. Trois défis principaux sont identifiés : gestion de l’attention, récupération de l’information, et son traitement. La mise en place de structures de KB et l’arrivée de coordinateurs favorisent l’intégration des données dans les projets. Les alters (analystes, designers, chefs de projet) acceptent de participer à ce processus d’intermédiation car ils y trouvent des bénéfices : accès à l’information, développement de leur expertise, et création de nouvelles connaissances communes.Ainsi, la création de valeur du Big Data dans les projets créatifs passe par la création de connaissances utilisateur, ce qui requiert l’échange informel de nombreux acteurs, incluant l’utilisateur, l’analyste et le designer. L’émergence du KB dans ce contexte permet de créer les espaces et les temporalités nécessaires pour que de ces échanges résultent de nouvelles connaissances utilisateur, qui seront utilisées par les projets créatifs. La thèse apporte plusieurs contributions : la clarification du lien entre le Big Data et la création de valeur pour les projets créatifs, l'identification des tensions générées par l’intégration du Big Data, et la proposition que le KB est un mécanisme pouvant les modérer. Elle révèle également des facteurs d’émergence des knowledge brokers et des raisons qui poussent les alters à participer au processus de knowledge brokering.Les implications managériales suggèrent que l’intégration du Big Data opère un changement de paradigme où l’utilisateur devient central, mais qu’elle génère aussi des tensions. Un processus en trois phases (anticipation, analyse, alignement) est avancé pour favoriser la création de connaissances, et il est suggéré de repérer les intermédiaires pour favoriser leurs activités de coordination de ce processus
For many companies, effectively leveraging Big Data to generate value remains a challenge, especially in creative industries. This thesis by articles explores the impact of Big Data on creative projects within the video game industry and examines how insights from Big Data can be integrated. Drawing on two main streams of literature—Big Data and knowledge brokering—it explores how Big Data influences decision-making processes and value creation, highlighting knowledge brokering (KB) as a mechanism that facilitates the creation and dissemination of Big Data insights among project stakeholders. The research framework is based on four years of observations and 57 semi-structured interviews within the creative projects of a video game company.The first article explores the uses of Big Data in creative projects and the resulting tensions. Three uses of Big Data are distinguished: decision support, exploration tool, and negotiation artifact. Eight organizational tensions are identified around three foci: control, coordination, and decision-making. These tensions negatively impact creativity, underscoring the delicate balance between data utilization and maintaining creativity.The second article describes the process of integrating Big Data analyses in three stages: anticipation, analysis, and alignment. The anticipation stage involves updating analysis needs based on the evolving environment and project requirements. The analysis stage reformulates stakeholders’ questions and prioritizes them before applying an appropriate reasoning mode. Finally, the alignment stage allows stakeholders to informally converge on a common interpretation of the analyses (through the exchange of tacit knowledge) and disseminate a narrative of the data-driven decisions. Intermediaries emerge to facilitate relationships between stakeholders.The third article examines the conditions for the emergence of KB and its effects on collaboration among Big Data stakeholders. Three main challenges are identified: attention management, information retrieval, and processing. The establishment of KB structures and the arrival of coordinators promote the integration of data into projects. Alters (analysts, designers, project managers) agree to participate in this intermediation process because they find benefits: access to information, development of their expertise, and creation of new shared knowledge.Thus, the creation of value from Big Data in creative projects involves creating user knowledge, which requires informal exchanges among many actors, including the user, analyst, and designer. The emergence of KB in this context creates the necessary spaces and times for these exchanges to result in new user knowledge, which will be used by creative projects. The thesis makes several contributions: clarifying the link between Big Data and value creation for creative projects, identifying the tensions generated by Big Data integration, and proposing KB as a mechanism that can moderate them. It also reveals factors for the emergence of knowledge brokers and reasons that motivate alters to participate in the knowledge brokering process.Managerial implications suggest that integrating Big Data brings a paradigm shift where the user becomes central, but it also generates tensions. A three-phase process (anticipation, analysis, alignment) is proposed to foster knowledge creation, and it is suggested to identify intermediaries to support their coordination activities in this process
APA, Harvard, Vancouver, ISO, and other styles
3

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
4

Vazquez, Llana Jordan Diego. "Environnement big data et prise de décision intuitive : le cas du Centre d'Information et de Commandement (CIC) de la Police nationale des Bouches du Rhône (DDSP 13)." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE3063.

Full text
Abstract:
La thèse de ce travail de recherche se pose la question de la place de l’intuition dans le processus décisionnel en environnement big data. Il s’appuie sur une étude de cas exploratoire développée près des décideurs du Centre d’Information et de Commandement (CIC) de la Police Nationale (PN) des Bouches du Rhône. Ces derniers évoluent en environnement big data et doivent régulièrement gérer des situations imprévues. Le corpus des données de terrain a été construit par triangulation de 28 entretiens individuels et collectifs, d’observations non participantes ainsi que d’archives et de rapports officiels. Ces nouvelles informations sont autant d’indices qui permettent aux décideurs de mieux anticiper les imprévus, les conduisant à reconfigurer leurs attentes, leurs objectifs et leurs actions. Ces aspects positifs sont cependant à évaluer au regard du risque induit par le volume conséquent d’informations dorénavant à disposition des décideurs. Ils doivent maîtriser les nouveaux systèmes et les applications qui permettent d’exploiter l’environnement big data. Les résultats suggèrent que lorsque les décideurs ne maîtrisent pas ces systèmes, l’environnement big data peut conduire un décideur expert métier à redevenir un novice
Godé and Vazquez have previously demonstrated that French Police team operate in extreme contexts (Godé & Vazquez, 2017), simultaneously marked by high levels of change, uncertainty and mainly vital, material and legal risks (Godé, 2016), but also technological. In this context, the notion of big data environment, can affect the police decision-making process. The problematic of this thesis is : "What is the status of intuition in decision-making process in a big data environment?". We explain how the growth of available information volumes, the great diversity of their sources (social networks, websites, connected objects), their speed of diffusion (in real time or near real time) and their unstructured nature (Davenport & Soulard, 2014) introduces new decision-making challenges for National Police forces
APA, Harvard, Vancouver, ISO, and other styles
5

Nicol, Olivier. "Data-driven evaluation of contextual bandit algorithms and applications to dynamic recommendation." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10211/document.

Full text
Abstract:
Ce travail de thèse a été réalisé dans le contexte de la recommandation dynamique. La recommandation est l'action de fournir du contenu personnalisé à un utilisateur utilisant une application, dans le but d'améliorer son utilisation e.g. la recommandation d'un produit sur un site marchant ou d'un article sur un blog. La recommandation est considérée comme dynamique lorsque le contenu à recommander ou encore les goûts des utilisateurs évoluent rapidement e.g. la recommandation d'actualités. Beaucoup d'applications auxquelles nous nous intéressons génèrent d'énormes quantités de données grâce à leurs millions d'utilisateurs sur Internet. Néanmoins, l'utilisation de ces données pour évaluer une nouvelle technique de recommandation ou encore comparer deux algorithmes de recommandation est loin d'être triviale. C'est cette problématique que nous considérons ici. Certaines approches ont déjà été proposées. Néanmoins elles sont très peu étudiées autant théoriquement (biais non quantifié, borne de convergence assez large...) qu'empiriquement (expériences sur données privées). Dans ce travail nous commençons par combler de nombreuses lacunes de l'analyse théorique. Ensuite nous discutons les résultats très surprenants d'une expérience à très grande échelle : une compétition ouverte au public que nous avons organisée. Cette compétition nous a permis de mettre en évidence une source de biais considérable et constamment présente en pratique : l'accélération temporelle. La suite de ce travail s'attaque à ce problème. Nous montrons qu'une approche à base de bootstrap permet de réduire mais surtout de contrôler ce biais
The context of this thesis work is dynamic recommendation. Recommendation is the action, for an intelligent system, to supply a user of an application with personalized content so as to enhance what is refered to as "user experience" e.g. recommending a product on a merchant website or even an article on a blog. Recommendation is considered dynamic when the content to recommend or user tastes evolve rapidly e.g. news recommendation. Many applications that are of interest to us generates a tremendous amount of data through the millions of online users they have. Nevertheless, using this data to evaluate a new recommendation technique or even compare two dynamic recommendation algorithms is far from trivial. This is the problem we consider here. Some approaches have already been proposed. Nonetheless they were not studied very thoroughly both from a theoretical point of view (unquantified bias, loose convergence bounds...) and from an empirical one (experiments on private data only). In this work we start by filling many blanks within the theoretical analysis. Then we comment on the result of an experiment of unprecedented scale in this area: a public challenge we organized. This challenge along with a some complementary experiments revealed a unexpected source of a huge bias: time acceleration. The rest of this work tackles this issue. We show that a bootstrap-based approach allows to significantly reduce this bias and more importantly to control it
APA, Harvard, Vancouver, ISO, and other styles
6

Duarte, Kevin. "Aide à la décision médicale et télémédecine dans le suivi de l’insuffisance cardiaque." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0283.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet "Prendre votre cœur en mains" visant à développer un dispositif médical d’aide à la prescription médicamenteuse pour les insuffisants cardiaques. Dans une première partie, une étude a été menée afin de mettre en évidence la valeur pronostique d’une estimation du volume plasmatique ou de ses variations pour la prédiction des événements cardiovasculaires majeurs à court terme. Deux règles de classification ont été utilisées, la régression logistique et l’analyse discriminante linéaire, chacune précédée d’une phase de sélection pas à pas des variables. Trois indices permettant de mesurer l’amélioration de la capacité de discrimination par ajout du biomarqueur d’intérêt ont été utilisés. Dans une seconde partie, afin d’identifier les patients à risque de décéder ou d’être hospitalisé pour progression de l’insuffisance cardiaque à court terme, un score d’événement a été construit par une méthode d’ensemble, en utilisant deux règles de classification, la régression logistique et l’analyse discriminante linéaire de données mixtes, des échantillons bootstrap et en sélectionnant aléatoirement les prédicteurs. Nous définissons une mesure du risque d’événement par un odds-ratio et une mesure de l’importance des variables et des groupes de variables. Nous montrons une propriété de l’analyse discriminante linéaire de données mixtes. Cette méthode peut être mise en œuvre dans le cadre de l’apprentissage en ligne, en utilisant des algorithmes de gradient stochastique pour mettre à jour en ligne les prédicteurs. Nous traitons le problème de la régression linéaire multidimensionnelle séquentielle, en particulier dans le cas d’un flux de données, en utilisant un processus d’approximation stochastique. Pour éviter le phénomène d’explosion numérique et réduire le temps de calcul pour prendre en compte un maximum de données entrantes, nous proposons d’utiliser un processus avec des données standardisées en ligne au lieu des données brutes et d’utiliser plusieurs observations à chaque étape ou toutes les observations jusqu’à l’étape courante sans avoir à les stocker. Nous définissons trois processus et en étudions la convergence presque sûre, un avec un pas variable, un processus moyennisé avec un pas constant, un processus avec un pas constant ou variable et l’utilisation de toutes les observations jusqu’à l’étape courante. Ces processus sont comparés à des processus classiques sur 11 jeux de données. Le troisième processus à pas constant est celui qui donne généralement les meilleurs résultats
This thesis is part of the "Handle your heart" project aimed at developing a drug prescription assistance device for heart failure patients. In a first part, a study was conducted to highlight the prognostic value of an estimation of plasma volume or its variations for predicting major short-term cardiovascular events. Two classification rules were used, logistic regression and linear discriminant analysis, each preceded by a stepwise variable selection. Three indices to measure the improvement in discrimination ability by adding the biomarker of interest were used. In a second part, in order to identify patients at short-term risk of dying or being hospitalized for progression of heart failure, a short-term event risk score was constructed by an ensemble method, two classification rules, logistic regression and linear discriminant analysis of mixed data, bootstrap samples, and by randomly selecting predictors. We define an event risk measure by an odds-ratio and a measure of the importance of variables and groups of variables using standardized coefficients. We show a property of linear discriminant analysis of mixed data. This methodology for constructing a risk score can be implemented as part of online learning, using stochastic gradient algorithms to update online the predictors. We address the problem of sequential multidimensional linear regression, particularly in the case of a data stream, using a stochastic approximation process. To avoid the phenomenon of numerical explosion which can be encountered and to reduce the computing time in order to take into account a maximum of arriving data, we propose to use a process with online standardized data instead of raw data and to use of several observations per step or all observations until the current step. We define three processes and study their almost sure convergence, one with a variable step-size, an averaged process with a constant step-size, a process with a constant or variable step-size and the use of all observations until the current step without storing them. These processes are compared to classical processes on 11 datasets. The third defined process with constant step-size typically yields the best results
APA, Harvard, Vancouver, ISO, and other styles
7

Duarte, Kevin. "Aide à la décision médicale et télémédecine dans le suivi de l’insuffisance cardiaque." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0283/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet "Prendre votre cœur en mains" visant à développer un dispositif médical d’aide à la prescription médicamenteuse pour les insuffisants cardiaques. Dans une première partie, une étude a été menée afin de mettre en évidence la valeur pronostique d’une estimation du volume plasmatique ou de ses variations pour la prédiction des événements cardiovasculaires majeurs à court terme. Deux règles de classification ont été utilisées, la régression logistique et l’analyse discriminante linéaire, chacune précédée d’une phase de sélection pas à pas des variables. Trois indices permettant de mesurer l’amélioration de la capacité de discrimination par ajout du biomarqueur d’intérêt ont été utilisés. Dans une seconde partie, afin d’identifier les patients à risque de décéder ou d’être hospitalisé pour progression de l’insuffisance cardiaque à court terme, un score d’événement a été construit par une méthode d’ensemble, en utilisant deux règles de classification, la régression logistique et l’analyse discriminante linéaire de données mixtes, des échantillons bootstrap et en sélectionnant aléatoirement les prédicteurs. Nous définissons une mesure du risque d’événement par un odds-ratio et une mesure de l’importance des variables et des groupes de variables. Nous montrons une propriété de l’analyse discriminante linéaire de données mixtes. Cette méthode peut être mise en œuvre dans le cadre de l’apprentissage en ligne, en utilisant des algorithmes de gradient stochastique pour mettre à jour en ligne les prédicteurs. Nous traitons le problème de la régression linéaire multidimensionnelle séquentielle, en particulier dans le cas d’un flux de données, en utilisant un processus d’approximation stochastique. Pour éviter le phénomène d’explosion numérique et réduire le temps de calcul pour prendre en compte un maximum de données entrantes, nous proposons d’utiliser un processus avec des données standardisées en ligne au lieu des données brutes et d’utiliser plusieurs observations à chaque étape ou toutes les observations jusqu’à l’étape courante sans avoir à les stocker. Nous définissons trois processus et en étudions la convergence presque sûre, un avec un pas variable, un processus moyennisé avec un pas constant, un processus avec un pas constant ou variable et l’utilisation de toutes les observations jusqu’à l’étape courante. Ces processus sont comparés à des processus classiques sur 11 jeux de données. Le troisième processus à pas constant est celui qui donne généralement les meilleurs résultats
This thesis is part of the "Handle your heart" project aimed at developing a drug prescription assistance device for heart failure patients. In a first part, a study was conducted to highlight the prognostic value of an estimation of plasma volume or its variations for predicting major short-term cardiovascular events. Two classification rules were used, logistic regression and linear discriminant analysis, each preceded by a stepwise variable selection. Three indices to measure the improvement in discrimination ability by adding the biomarker of interest were used. In a second part, in order to identify patients at short-term risk of dying or being hospitalized for progression of heart failure, a short-term event risk score was constructed by an ensemble method, two classification rules, logistic regression and linear discriminant analysis of mixed data, bootstrap samples, and by randomly selecting predictors. We define an event risk measure by an odds-ratio and a measure of the importance of variables and groups of variables using standardized coefficients. We show a property of linear discriminant analysis of mixed data. This methodology for constructing a risk score can be implemented as part of online learning, using stochastic gradient algorithms to update online the predictors. We address the problem of sequential multidimensional linear regression, particularly in the case of a data stream, using a stochastic approximation process. To avoid the phenomenon of numerical explosion which can be encountered and to reduce the computing time in order to take into account a maximum of arriving data, we propose to use a process with online standardized data instead of raw data and to use of several observations per step or all observations until the current step. We define three processes and study their almost sure convergence, one with a variable step-size, an averaged process with a constant step-size, a process with a constant or variable step-size and the use of all observations until the current step without storing them. These processes are compared to classical processes on 11 datasets. The third defined process with constant step-size typically yields the best results
APA, Harvard, Vancouver, ISO, and other styles
8

Gingras, François. "Prise de décision à partir de données séquentielles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0019/NQ56697.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Haddad, Raja. "Apprentissage supervisé de données symboliques et l'adaptation aux données massives et distribuées." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED028/document.

Full text
Abstract:
Cette thèse a pour but l'enrichissement des méthodes supervisées d'analyse de données symboliques et l'extension de ce domaine aux données volumineuses, dites "Big Data". Nous proposons à cette fin une méthode supervisée nommée HistSyr. HistSyr convertit automatiquement les variables continues en histogrammes les plus discriminants pour les classes d'individus. Nous proposons également une nouvelle méthode d'arbres de décision symbolique, dite SyrTree. SyrTree accepte tous plusieurs types de variables explicatives et à expliquer pour construire l'arbre de décision symbolique. Enfin, nous étendons HistSyr aux Big Data, en définissant une méthode distribuée nommée CloudHistSyr. CloudHistSyr utilise Map/Reduce pour créer les histogrammes les plus discriminants pour des données trop volumineuses pour HistSyr. Nous avons testé CloudHistSyr sur Amazon Web Services (AWS). Nous démontrons la scalabilité et l’efficacité de notre méthode sur des données simulées et sur les données expérimentales. Nous concluons sur l’utilité de CloudHistSyr qui , grâce à ses résultats, permet l'étude de données massives en utilisant les méthodes d'analyse symboliques existantes
This Thesis proposes new supervised methods for Symbolic Data Analysis (SDA) and extends this domain to Big Data. We start by creating a supervised method called HistSyr that converts automatically continuous variables to the most discriminant histograms for classes of individuals. We also propose a new method of symbolic decision trees that we call SyrTree. SyrTree accepts many types of inputs and target variables and can use all symbolic variables describing the target to construct the decision tree. Finally, we extend HistSyr to Big Data, by creating a distributed method called CloudHistSyr. Using the Map/Reduce framework, CloudHistSyr creates of the most discriminant histograms for data too big for HistSyr. We tested CloudHistSyr on Amazon Web Services. We show the efficiency of our method on simulated data and on actual car traffic data in Nantes. We conclude on overall utility of CloudHistSyr which, through its results, allows the study of massive data using existing symbolic analysis methods
APA, Harvard, Vancouver, ISO, and other styles
10

Albert-Lorincz, Hunor. "Contributions aux techniques de prise de décision et de valorisation financière." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0039/these.pdf.

Full text
Abstract:
Nous travaillons dans le contexte général de la prise de décision financière. Nous considérons d’abord le problème algorithmique de l’extraction de motifs séquentiels, par exemple depuis des séries temporelles discrètes décrivant des évolutions de cours. Nous introduisons la famille des contraintes bien partitionnées qui permettent une décomposition hiérarchique des espaces de recherche. Le cas particulier de la conjonction d’une contrainte de fréquence et d’une contrainte d’expression régulière est détaillé. On peut alors réaliser des stratégies d’élagages adaptatives qui trouvent des compromis entre l’exploitation active de contraintes non anti-monotones (e. G. , les expressions) sans pour autant se priver des possibilités d’élagage des contraintes anti-monotones (e. G. La fréquence). Nous présentons ensuite deux développements dédiés à la prise de décision financière. Nous proposons d’abord d’améliorer le pouvoir prédictif des indicateurs techniques en introduisant des signatures pour les configurations de marché et ainsi améliorer les performances des automates de trading. Ensuite, nous étudions la valorisation d’une classe particulière de produits dérivés où l’un des contreparties a le droit de rompre l’accord à une série de dates prédéterminées. Il est alors nécessaire de calculer des espérances conditionnelles à un futur état de monde, ce qui se fait traditionnellement par une double simulation Monte Carlo très gourmande en temps de calcul. Nous proposons une nouvelle technique baptisée neighbourhood Monte Carlo qui est plus que 20 fois plus rapide que les méthodes précédentes
This thesis investigates and develops tools for flnancial decision making. Our first contribution is aimed at the extraction of frequents sequential patterns from, for example, discretized flnancial lime series. We introduce well partitioned constraints that allow a hierarchical structuration of the search space for increased efficiency. In particular, we look at the conjunction of a minimal frequency constraint and a regular expression constraint. It becomes possible to build adaptative strategies that find a good balance between the pruning based on the anti-monotonic frequency and the pruning based on the regular expression constraint which is generally neither monotonie nor antimonotonic. Then, we develop two financial applications. At first, we use frequent patterns to characterise market configurations by means of signatures in order to improve some technical indicators functions for automated trading strategies. Then, we look at the pricing of Bermudan options, i. E. , a financial derivative product which allows to terminate an agreement between two parties at a set of pre-defined dates. This requires to compute double conditional expectations at a high computational cos!. Our new method, neighbourhood Monte Carlo can be up to 20 times faster th an the traditional methods
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Données massives – Prise de décision"

1

Hammami-Abid, Ines. Systèmes d'information et performance de la prise de décision: Étude théorique et étude expérimentale dans le cas des systèmes à base d'entrepôt de données. Grenoble: A.N.R.T, Université Pierre Mendes France (Grenoble II), 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Boris, Kovalerchuk, and Schwing James, eds. Visual and spatial analysis: Advances in data mining reasoning, and problem solving. Dordrecht: Springer, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

E, Krider Robert, ed. Customer and business analytics: Applied data mining for business decision making using R. Boca Raton, FL: CRC Press, 2012.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Sifeng, Liu, and Lin Yi 1959-, eds. Hybrid rough sets and applications in uncertain decision-making. Boca Raton: Auerbach Publications, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bhatia, Surbhi, Parul Gandhi, and Kapal Dev. Data Driven Decision Making Using Analytics. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bhatia, Surbhi, Parul Gandhi, and Kapil Dev. Data Driven Decision Making Using Analytics. CRC Press LLC, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Data Driven Decision Making Using Analytics. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Big Data Analytics Using Multiple Criteria Decision-Making Models. Taylor & Francis Group, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ravindran, A. Ravi, Ramakrishnan Ramanathan, and Muthu Mathirajan. Big Data Analytics Using Multiple Criteria Decision-Making Models. Taylor & Francis Group, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ravindran, A. Ravi, Ramakrishnan Ramanathan, and Muthu Mathirajan. Big Data Analytics Using Multiple Criteria Decision-Making Models. Taylor & Francis Group, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Données massives – Prise de décision"

1

"Une prise de décision basée sur des données probantes." In Communauté d'apprentissage professionnelle, 169–79. Presses de l'Université du Québec, 2012. http://dx.doi.org/10.1515/9782760535329-014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sullivan, Terrence, Margo Orchard, and Muriah Umoquit. "Compétences en Leadership Pour une Prise de Décision éclairéE Par Les Données Probantes." In Améliorer le leadership dans les services de santé au Canada, 77–92. McGill-Queen's University Press, 2012. http://dx.doi.org/10.1515/9780773587526-009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

RAHHAL, Anabelle, Samia BEN RAJEB, and Pierre LECLERCQ. "Enjeux collaboratifs de la numérisation de l’information en construction : le cas du BIM." In Les activités cognitives de conception en architecture, 209–39. ISTE Group, 2025. https://doi.org/10.51926/iste.9204.ch6.

Full text
Abstract:
Le BIM, malgré ses avantages pour la gestion collaborative des données de construction, rencontre des problèmes d’interopérabilité et de résistance au changement. Les normes et protocoles sont insuffisamment partagés, et les informations sont souvent incohérentes et mal consolidées. La transition vers une collaboration augmentée par le BIM nécessite une stratégie numérique structurée, une adaptation des pratiques et des modèles économiques, ainsi qu'une meilleure gestion de l'information, notamment à travers des normes comme l'ISO 19650. La réussite des projets de construction 4.0 dépendra de la capacité à combiner ces concepts pour améliorer la collaboration et la prise de décision.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Données massives – Prise de décision"

1

Cheng, Yeeva, and Cara Kraus-Perrotta. L’élaboration de la liste de contrôle pour les politiques A3. Population Council, 2022. http://dx.doi.org/10.31899/sbsr2022.1017.

Full text
Abstract:
L'Atlas des Adolescents pour l'Action (A3) est une suite d'outils qui résume la vie et les besoins des adolescents du monde entier afin de promouvoir une prise de décision fondée sur des données probantes. Grâce à des données accessibles et faciles à saisir en un seul clic, l'A3 comble le fossé entre les décideurs et les données factuelles afin d'éclairer les politiques et les programmes. La liste de contrôle des politiques A3, créée par le GIRL Center du Population Council, présente une liste de politiques nationales pertinentes pour la vie des adolescents dans 9 domaines thématiques, et indique si les pays ont adopté chaque politique. La liste de contrôle présente un aperçu des engagements pris pour atteindre le bien-être des adolescents par le biais de politiques axées sur les adolescents. En juillet 2022, la liste de contrôle des politiques comprend 56 politiques, qui ont été suivies pour 113 pays à revenu faible ou intermédiaire (PRFM). Cette liste de politiques n'est pas exhaustive, et des politiques supplémentaires seront ajoutées à la liste de contrôle chaque année. Ce document présente la méthodologie utilisée pour élaborer la liste de contrôle de la politique A3.
APA, Harvard, Vancouver, ISO, and other styles
2

Cheng, Yeeva, and Cara Krause-Perrotta. Guide d’utilisation de la liste de contrôle de la politique A3. Population Council, 2022. http://dx.doi.org/10.31899/sbsr2022.1021.

Full text
Abstract:
L'Atlas des Adolescents pour l'Action (A3) est une suite d'outils qui résume la vie et les besoins des adolescents du monde entier afin de promouvoir une prise de décision fondée sur des données probantes. Grâce à des données accessibles et faciles à saisir en un seul clic, l'A3 comble le fossé entre les décideurs et les données factuelles afin d'éclairer les politiques et les programmes. La liste de contrôle des politiques A3, créée par le GIRL Center du Population Council, présente une liste de politiques nationales relatives aux adolescents dans neuf domaines thématiques, et indique si les pays ont adopté chaque politique. La liste de contrôle présente un aperçu des engagements pris pour atteindre le bien-être des adolescents par le biais de politiques axées sur les adolescents. En juillet 2022, la liste de contrôle des politiques comprend 56 politiques, qui ont été suivies pour 113 pays à revenu faible ou intermédiaire (PRFM). Cette liste de politiques n'est pas exhaustive, et des politiques supplémentaires seront ajoutées à la liste de contrôle chaque année. Ce guide fournit un aperçu étape par étape de la manière d'utiliser la liste de contrôle des politiques A3.
APA, Harvard, Vancouver, ISO, and other styles
3

Goerzen, C., H. Kao, R. Visser, R. M. H. Dokht, and S. Venables. A comprehensive earthquake catalogue for northeastern British Columbia, 2021 and 2022. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/332532.

Full text
Abstract:
Ce rapport de fichier ouvert présente les résultats de la surveillance sismique globale menée dans le nord-est de la Colombie-Britannique (NE BC) en 2021 et 2022. L'effort de surveillance englobe deux zones primaires d'observation sismique : la zone de surveillance etd'atténuation sismique de Kiskatinaw (KSMMA) et la zone de condition de permis de surveillance du mouvement du sol (GMMPCA), chacune étant caractérisée par des opérations pétrolières et gazières différentes, ainsi que par des densités de population. Un flux de travail de pointe basé surl'apprentissage automatique a été utilisé pour la détection des tremblements de terre et la détermination des phases. Une étape de révision manuelle a été incluse pour garantir la qualité de toutes les détections et localisations de tremblements de terre. Du 1er janvier 2021 au 31 décembre 2022, untotal de 9655 événements sismiques ont été détectés, avec un taux mensuel moyen de 420 événements. Le KSMMA a enregistré 8468 événements au cours de cette période, caractérisés par un regroupement serré, tandis que le GMMPCA a enregistré 899 événements. Des variations dans les taux de sismicité ontété observées par rapport aux rapports précédents, potentiellement influencées par des changements dans les activités industrielles et les capacités de surveillance sismique. L'ampleur de l'exhaustivité pour le KSMMA est passée à 1,01, reflétant les changements dans le réseau de surveillancesismique, tandis que le GMMPCA a affiché une ampleur de l'exhaustivité de 1,45, légèrement supérieure à celle de la période de rapport précédente. Ce rapport souligne la nature dynamique de la sismicité induite dans le nord-est de la Colombie-Britannique, en insistant sur la nécessité d'unesurveillance continue, de mesures d'atténuation adaptatives et d'une collecte robuste de données sismiques pour éclairer la prise de décision et améliorer la préparation aux tremblements de terre.
APA, Harvard, Vancouver, ISO, and other styles
4

Élaboration du tableau de bord A3 des indicateurs relatifs aux adolescents et du tableau de bord des écarts entre les sexes. Population Council, 2022. http://dx.doi.org/10.31899/sbsr2022.1015.

Full text
Abstract:
L'Atlas des Adolescents pour l'Action (A3) est une suite d'outils qui résume la vie et les besoins des adolescents du monde entier afin de promouvoir une prise de décision fondée sur des données probantes. Grâce à ses données accessibles et faciles à saisir en un seul clic, l'A3 comble le fossé entre les décideurs et les données factuelles afin d'éclairer les politiques et les programmes. Le tableau de bord des indicateurs relatifs aux adolescents et le tableau de bord des écarts entre les sexes sont deux tableaux de bord simples mais dynamiques qui donnent un aperçu de la vie des adolescents, filles et garçons, vivant dans les pays à revenu faible et intermédiaire (PRFM) dans neuf domaines thématiques de bien-être. Le tableau de bord des indicateurs relatifs aux adolescents montre comment les adolescents, filles ou garçons, se débrouillent dans chaque thème, au niveau mondial et infranational, ainsi que les liens entre les indicateurs des différents domaines. Le tableau de bord des écarts entre les sexes vous permet de comparer les écarts par domaine et par indicateur, à l'échelle mondiale et nfranationale. Ce dossier présente la méthodologie utilisée pour élaborer ces deux tableaux de bord.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography