To see the other types of publications on this topic, follow the link: Données massives – Prise de décision.

Dissertations / Theses on the topic 'Données massives – Prise de décision'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Données massives – Prise de décision.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
2

Conort, Paul. "Le Big Data au service de la création : Au-Delà des tensions, le knowledge brokering pour gérer la co-création de valeur à partir des données utilsateur." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX126.

Full text
Abstract:
Pour beaucoup d’entreprises, exploiter efficacement le Big Data pour générer de la valeur reste un défi, en particulier dans les industries créatives. Cette thèse par articles explore l’impact du Big Data sur les projets créatifs, dans l’industrie du jeu vidéo, et examine comment les connaissances issues du Big Data peuvent y être intégrées. En s’appuyant sur deux principaux courants de littérature, celui sur le Big Data et celui sur le knowledge brokering, elle explore comment le Big Data influence les processus de décision et la création de valeur, et met en avant le knowledge brokering (KB) comme un mécanisme facilitant la création et la diffusion de connaissances issues du Big Data entre les acteurs des projets. Le dispositif de recherche s’appuie sur quatre ans d’observations et 57 entretiens semi-directifs au sein des projets créatifs d’une entreprise de jeu vidéo.Le premier article explore les usages du Big Data dans les projets créatifs et les tensions qui en résultent. Trois usages du Big Data sont distingués : aide à la décision, outil d’exploration, et artefact de négociation. Huit tensions organisationnelles sont identifiées autour de trois thèmes: contrôle, coordination et prise de décision. Ces tensions exercent une influence négative sur la créativité, soulignant l’équilibre délicat entre l’utilisation des données et le maintien de la créativité.Le deuxième article décrit le processus d’intégration des analyses du Big Data en trois étapes : anticipation, analyse et alignement. L’étape d’anticipation consiste à mettre à jour les besoins d’analyse en fonction de l’évolution de l’environnement et des besoins du projet. L’étape d’analyse reformule les questions des acteurs et les priorise avant d’utiliser un mode de raisonnement adapté. Enfin, l’étape d’alignement permet aux acteurs de converger informellement vers une interprétation commune des analyses (grâce à l’échange de connaissances tacites) et de diffuser un récit des décisions prises à partir des données. Des intermédiaires émergent alors pour faciliter les relations entre les parties prenantes.Le troisième article examine les conditions d’émergence du KB et ses effets sur la collaboration entre les acteurs du Big Data. Trois défis principaux sont identifiés : gestion de l’attention, récupération de l’information, et son traitement. La mise en place de structures de KB et l’arrivée de coordinateurs favorisent l’intégration des données dans les projets. Les alters (analystes, designers, chefs de projet) acceptent de participer à ce processus d’intermédiation car ils y trouvent des bénéfices : accès à l’information, développement de leur expertise, et création de nouvelles connaissances communes.Ainsi, la création de valeur du Big Data dans les projets créatifs passe par la création de connaissances utilisateur, ce qui requiert l’échange informel de nombreux acteurs, incluant l’utilisateur, l’analyste et le designer. L’émergence du KB dans ce contexte permet de créer les espaces et les temporalités nécessaires pour que de ces échanges résultent de nouvelles connaissances utilisateur, qui seront utilisées par les projets créatifs. La thèse apporte plusieurs contributions : la clarification du lien entre le Big Data et la création de valeur pour les projets créatifs, l'identification des tensions générées par l’intégration du Big Data, et la proposition que le KB est un mécanisme pouvant les modérer. Elle révèle également des facteurs d’émergence des knowledge brokers et des raisons qui poussent les alters à participer au processus de knowledge brokering.Les implications managériales suggèrent que l’intégration du Big Data opère un changement de paradigme où l’utilisateur devient central, mais qu’elle génère aussi des tensions. Un processus en trois phases (anticipation, analyse, alignement) est avancé pour favoriser la création de connaissances, et il est suggéré de repérer les intermédiaires pour favoriser leurs activités de coordination de ce processus
For many companies, effectively leveraging Big Data to generate value remains a challenge, especially in creative industries. This thesis by articles explores the impact of Big Data on creative projects within the video game industry and examines how insights from Big Data can be integrated. Drawing on two main streams of literature—Big Data and knowledge brokering—it explores how Big Data influences decision-making processes and value creation, highlighting knowledge brokering (KB) as a mechanism that facilitates the creation and dissemination of Big Data insights among project stakeholders. The research framework is based on four years of observations and 57 semi-structured interviews within the creative projects of a video game company.The first article explores the uses of Big Data in creative projects and the resulting tensions. Three uses of Big Data are distinguished: decision support, exploration tool, and negotiation artifact. Eight organizational tensions are identified around three foci: control, coordination, and decision-making. These tensions negatively impact creativity, underscoring the delicate balance between data utilization and maintaining creativity.The second article describes the process of integrating Big Data analyses in three stages: anticipation, analysis, and alignment. The anticipation stage involves updating analysis needs based on the evolving environment and project requirements. The analysis stage reformulates stakeholders’ questions and prioritizes them before applying an appropriate reasoning mode. Finally, the alignment stage allows stakeholders to informally converge on a common interpretation of the analyses (through the exchange of tacit knowledge) and disseminate a narrative of the data-driven decisions. Intermediaries emerge to facilitate relationships between stakeholders.The third article examines the conditions for the emergence of KB and its effects on collaboration among Big Data stakeholders. Three main challenges are identified: attention management, information retrieval, and processing. The establishment of KB structures and the arrival of coordinators promote the integration of data into projects. Alters (analysts, designers, project managers) agree to participate in this intermediation process because they find benefits: access to information, development of their expertise, and creation of new shared knowledge.Thus, the creation of value from Big Data in creative projects involves creating user knowledge, which requires informal exchanges among many actors, including the user, analyst, and designer. The emergence of KB in this context creates the necessary spaces and times for these exchanges to result in new user knowledge, which will be used by creative projects. The thesis makes several contributions: clarifying the link between Big Data and value creation for creative projects, identifying the tensions generated by Big Data integration, and proposing KB as a mechanism that can moderate them. It also reveals factors for the emergence of knowledge brokers and reasons that motivate alters to participate in the knowledge brokering process.Managerial implications suggest that integrating Big Data brings a paradigm shift where the user becomes central, but it also generates tensions. A three-phase process (anticipation, analysis, alignment) is proposed to foster knowledge creation, and it is suggested to identify intermediaries to support their coordination activities in this process
APA, Harvard, Vancouver, ISO, and other styles
3

Belghaouti, Fethi. "Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL003.

Full text
Abstract:
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes
Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources
APA, Harvard, Vancouver, ISO, and other styles
4

Vazquez, Llana Jordan Diego. "Environnement big data et prise de décision intuitive : le cas du Centre d'Information et de Commandement (CIC) de la Police nationale des Bouches du Rhône (DDSP 13)." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE3063.

Full text
Abstract:
La thèse de ce travail de recherche se pose la question de la place de l’intuition dans le processus décisionnel en environnement big data. Il s’appuie sur une étude de cas exploratoire développée près des décideurs du Centre d’Information et de Commandement (CIC) de la Police Nationale (PN) des Bouches du Rhône. Ces derniers évoluent en environnement big data et doivent régulièrement gérer des situations imprévues. Le corpus des données de terrain a été construit par triangulation de 28 entretiens individuels et collectifs, d’observations non participantes ainsi que d’archives et de rapports officiels. Ces nouvelles informations sont autant d’indices qui permettent aux décideurs de mieux anticiper les imprévus, les conduisant à reconfigurer leurs attentes, leurs objectifs et leurs actions. Ces aspects positifs sont cependant à évaluer au regard du risque induit par le volume conséquent d’informations dorénavant à disposition des décideurs. Ils doivent maîtriser les nouveaux systèmes et les applications qui permettent d’exploiter l’environnement big data. Les résultats suggèrent que lorsque les décideurs ne maîtrisent pas ces systèmes, l’environnement big data peut conduire un décideur expert métier à redevenir un novice
Godé and Vazquez have previously demonstrated that French Police team operate in extreme contexts (Godé & Vazquez, 2017), simultaneously marked by high levels of change, uncertainty and mainly vital, material and legal risks (Godé, 2016), but also technological. In this context, the notion of big data environment, can affect the police decision-making process. The problematic of this thesis is : "What is the status of intuition in decision-making process in a big data environment?". We explain how the growth of available information volumes, the great diversity of their sources (social networks, websites, connected objects), their speed of diffusion (in real time or near real time) and their unstructured nature (Davenport & Soulard, 2014) introduces new decision-making challenges for National Police forces
APA, Harvard, Vancouver, ISO, and other styles
5

Nicol, Olivier. "Data-driven evaluation of contextual bandit algorithms and applications to dynamic recommendation." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10211/document.

Full text
Abstract:
Ce travail de thèse a été réalisé dans le contexte de la recommandation dynamique. La recommandation est l'action de fournir du contenu personnalisé à un utilisateur utilisant une application, dans le but d'améliorer son utilisation e.g. la recommandation d'un produit sur un site marchant ou d'un article sur un blog. La recommandation est considérée comme dynamique lorsque le contenu à recommander ou encore les goûts des utilisateurs évoluent rapidement e.g. la recommandation d'actualités. Beaucoup d'applications auxquelles nous nous intéressons génèrent d'énormes quantités de données grâce à leurs millions d'utilisateurs sur Internet. Néanmoins, l'utilisation de ces données pour évaluer une nouvelle technique de recommandation ou encore comparer deux algorithmes de recommandation est loin d'être triviale. C'est cette problématique que nous considérons ici. Certaines approches ont déjà été proposées. Néanmoins elles sont très peu étudiées autant théoriquement (biais non quantifié, borne de convergence assez large...) qu'empiriquement (expériences sur données privées). Dans ce travail nous commençons par combler de nombreuses lacunes de l'analyse théorique. Ensuite nous discutons les résultats très surprenants d'une expérience à très grande échelle : une compétition ouverte au public que nous avons organisée. Cette compétition nous a permis de mettre en évidence une source de biais considérable et constamment présente en pratique : l'accélération temporelle. La suite de ce travail s'attaque à ce problème. Nous montrons qu'une approche à base de bootstrap permet de réduire mais surtout de contrôler ce biais
The context of this thesis work is dynamic recommendation. Recommendation is the action, for an intelligent system, to supply a user of an application with personalized content so as to enhance what is refered to as "user experience" e.g. recommending a product on a merchant website or even an article on a blog. Recommendation is considered dynamic when the content to recommend or user tastes evolve rapidly e.g. news recommendation. Many applications that are of interest to us generates a tremendous amount of data through the millions of online users they have. Nevertheless, using this data to evaluate a new recommendation technique or even compare two dynamic recommendation algorithms is far from trivial. This is the problem we consider here. Some approaches have already been proposed. Nonetheless they were not studied very thoroughly both from a theoretical point of view (unquantified bias, loose convergence bounds...) and from an empirical one (experiments on private data only). In this work we start by filling many blanks within the theoretical analysis. Then we comment on the result of an experiment of unprecedented scale in this area: a public challenge we organized. This challenge along with a some complementary experiments revealed a unexpected source of a huge bias: time acceleration. The rest of this work tackles this issue. We show that a bootstrap-based approach allows to significantly reduce this bias and more importantly to control it
APA, Harvard, Vancouver, ISO, and other styles
6

Duarte, Kevin. "Aide à la décision médicale et télémédecine dans le suivi de l’insuffisance cardiaque." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0283.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet "Prendre votre cœur en mains" visant à développer un dispositif médical d’aide à la prescription médicamenteuse pour les insuffisants cardiaques. Dans une première partie, une étude a été menée afin de mettre en évidence la valeur pronostique d’une estimation du volume plasmatique ou de ses variations pour la prédiction des événements cardiovasculaires majeurs à court terme. Deux règles de classification ont été utilisées, la régression logistique et l’analyse discriminante linéaire, chacune précédée d’une phase de sélection pas à pas des variables. Trois indices permettant de mesurer l’amélioration de la capacité de discrimination par ajout du biomarqueur d’intérêt ont été utilisés. Dans une seconde partie, afin d’identifier les patients à risque de décéder ou d’être hospitalisé pour progression de l’insuffisance cardiaque à court terme, un score d’événement a été construit par une méthode d’ensemble, en utilisant deux règles de classification, la régression logistique et l’analyse discriminante linéaire de données mixtes, des échantillons bootstrap et en sélectionnant aléatoirement les prédicteurs. Nous définissons une mesure du risque d’événement par un odds-ratio et une mesure de l’importance des variables et des groupes de variables. Nous montrons une propriété de l’analyse discriminante linéaire de données mixtes. Cette méthode peut être mise en œuvre dans le cadre de l’apprentissage en ligne, en utilisant des algorithmes de gradient stochastique pour mettre à jour en ligne les prédicteurs. Nous traitons le problème de la régression linéaire multidimensionnelle séquentielle, en particulier dans le cas d’un flux de données, en utilisant un processus d’approximation stochastique. Pour éviter le phénomène d’explosion numérique et réduire le temps de calcul pour prendre en compte un maximum de données entrantes, nous proposons d’utiliser un processus avec des données standardisées en ligne au lieu des données brutes et d’utiliser plusieurs observations à chaque étape ou toutes les observations jusqu’à l’étape courante sans avoir à les stocker. Nous définissons trois processus et en étudions la convergence presque sûre, un avec un pas variable, un processus moyennisé avec un pas constant, un processus avec un pas constant ou variable et l’utilisation de toutes les observations jusqu’à l’étape courante. Ces processus sont comparés à des processus classiques sur 11 jeux de données. Le troisième processus à pas constant est celui qui donne généralement les meilleurs résultats
This thesis is part of the "Handle your heart" project aimed at developing a drug prescription assistance device for heart failure patients. In a first part, a study was conducted to highlight the prognostic value of an estimation of plasma volume or its variations for predicting major short-term cardiovascular events. Two classification rules were used, logistic regression and linear discriminant analysis, each preceded by a stepwise variable selection. Three indices to measure the improvement in discrimination ability by adding the biomarker of interest were used. In a second part, in order to identify patients at short-term risk of dying or being hospitalized for progression of heart failure, a short-term event risk score was constructed by an ensemble method, two classification rules, logistic regression and linear discriminant analysis of mixed data, bootstrap samples, and by randomly selecting predictors. We define an event risk measure by an odds-ratio and a measure of the importance of variables and groups of variables using standardized coefficients. We show a property of linear discriminant analysis of mixed data. This methodology for constructing a risk score can be implemented as part of online learning, using stochastic gradient algorithms to update online the predictors. We address the problem of sequential multidimensional linear regression, particularly in the case of a data stream, using a stochastic approximation process. To avoid the phenomenon of numerical explosion which can be encountered and to reduce the computing time in order to take into account a maximum of arriving data, we propose to use a process with online standardized data instead of raw data and to use of several observations per step or all observations until the current step. We define three processes and study their almost sure convergence, one with a variable step-size, an averaged process with a constant step-size, a process with a constant or variable step-size and the use of all observations until the current step without storing them. These processes are compared to classical processes on 11 datasets. The third defined process with constant step-size typically yields the best results
APA, Harvard, Vancouver, ISO, and other styles
7

Duarte, Kevin. "Aide à la décision médicale et télémédecine dans le suivi de l’insuffisance cardiaque." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0283/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet "Prendre votre cœur en mains" visant à développer un dispositif médical d’aide à la prescription médicamenteuse pour les insuffisants cardiaques. Dans une première partie, une étude a été menée afin de mettre en évidence la valeur pronostique d’une estimation du volume plasmatique ou de ses variations pour la prédiction des événements cardiovasculaires majeurs à court terme. Deux règles de classification ont été utilisées, la régression logistique et l’analyse discriminante linéaire, chacune précédée d’une phase de sélection pas à pas des variables. Trois indices permettant de mesurer l’amélioration de la capacité de discrimination par ajout du biomarqueur d’intérêt ont été utilisés. Dans une seconde partie, afin d’identifier les patients à risque de décéder ou d’être hospitalisé pour progression de l’insuffisance cardiaque à court terme, un score d’événement a été construit par une méthode d’ensemble, en utilisant deux règles de classification, la régression logistique et l’analyse discriminante linéaire de données mixtes, des échantillons bootstrap et en sélectionnant aléatoirement les prédicteurs. Nous définissons une mesure du risque d’événement par un odds-ratio et une mesure de l’importance des variables et des groupes de variables. Nous montrons une propriété de l’analyse discriminante linéaire de données mixtes. Cette méthode peut être mise en œuvre dans le cadre de l’apprentissage en ligne, en utilisant des algorithmes de gradient stochastique pour mettre à jour en ligne les prédicteurs. Nous traitons le problème de la régression linéaire multidimensionnelle séquentielle, en particulier dans le cas d’un flux de données, en utilisant un processus d’approximation stochastique. Pour éviter le phénomène d’explosion numérique et réduire le temps de calcul pour prendre en compte un maximum de données entrantes, nous proposons d’utiliser un processus avec des données standardisées en ligne au lieu des données brutes et d’utiliser plusieurs observations à chaque étape ou toutes les observations jusqu’à l’étape courante sans avoir à les stocker. Nous définissons trois processus et en étudions la convergence presque sûre, un avec un pas variable, un processus moyennisé avec un pas constant, un processus avec un pas constant ou variable et l’utilisation de toutes les observations jusqu’à l’étape courante. Ces processus sont comparés à des processus classiques sur 11 jeux de données. Le troisième processus à pas constant est celui qui donne généralement les meilleurs résultats
This thesis is part of the "Handle your heart" project aimed at developing a drug prescription assistance device for heart failure patients. In a first part, a study was conducted to highlight the prognostic value of an estimation of plasma volume or its variations for predicting major short-term cardiovascular events. Two classification rules were used, logistic regression and linear discriminant analysis, each preceded by a stepwise variable selection. Three indices to measure the improvement in discrimination ability by adding the biomarker of interest were used. In a second part, in order to identify patients at short-term risk of dying or being hospitalized for progression of heart failure, a short-term event risk score was constructed by an ensemble method, two classification rules, logistic regression and linear discriminant analysis of mixed data, bootstrap samples, and by randomly selecting predictors. We define an event risk measure by an odds-ratio and a measure of the importance of variables and groups of variables using standardized coefficients. We show a property of linear discriminant analysis of mixed data. This methodology for constructing a risk score can be implemented as part of online learning, using stochastic gradient algorithms to update online the predictors. We address the problem of sequential multidimensional linear regression, particularly in the case of a data stream, using a stochastic approximation process. To avoid the phenomenon of numerical explosion which can be encountered and to reduce the computing time in order to take into account a maximum of arriving data, we propose to use a process with online standardized data instead of raw data and to use of several observations per step or all observations until the current step. We define three processes and study their almost sure convergence, one with a variable step-size, an averaged process with a constant step-size, a process with a constant or variable step-size and the use of all observations until the current step without storing them. These processes are compared to classical processes on 11 datasets. The third defined process with constant step-size typically yields the best results
APA, Harvard, Vancouver, ISO, and other styles
8

Gingras, François. "Prise de décision à partir de données séquentielles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0019/NQ56697.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Haddad, Raja. "Apprentissage supervisé de données symboliques et l'adaptation aux données massives et distribuées." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED028/document.

Full text
Abstract:
Cette thèse a pour but l'enrichissement des méthodes supervisées d'analyse de données symboliques et l'extension de ce domaine aux données volumineuses, dites "Big Data". Nous proposons à cette fin une méthode supervisée nommée HistSyr. HistSyr convertit automatiquement les variables continues en histogrammes les plus discriminants pour les classes d'individus. Nous proposons également une nouvelle méthode d'arbres de décision symbolique, dite SyrTree. SyrTree accepte tous plusieurs types de variables explicatives et à expliquer pour construire l'arbre de décision symbolique. Enfin, nous étendons HistSyr aux Big Data, en définissant une méthode distribuée nommée CloudHistSyr. CloudHistSyr utilise Map/Reduce pour créer les histogrammes les plus discriminants pour des données trop volumineuses pour HistSyr. Nous avons testé CloudHistSyr sur Amazon Web Services (AWS). Nous démontrons la scalabilité et l’efficacité de notre méthode sur des données simulées et sur les données expérimentales. Nous concluons sur l’utilité de CloudHistSyr qui , grâce à ses résultats, permet l'étude de données massives en utilisant les méthodes d'analyse symboliques existantes
This Thesis proposes new supervised methods for Symbolic Data Analysis (SDA) and extends this domain to Big Data. We start by creating a supervised method called HistSyr that converts automatically continuous variables to the most discriminant histograms for classes of individuals. We also propose a new method of symbolic decision trees that we call SyrTree. SyrTree accepts many types of inputs and target variables and can use all symbolic variables describing the target to construct the decision tree. Finally, we extend HistSyr to Big Data, by creating a distributed method called CloudHistSyr. Using the Map/Reduce framework, CloudHistSyr creates of the most discriminant histograms for data too big for HistSyr. We tested CloudHistSyr on Amazon Web Services. We show the efficiency of our method on simulated data and on actual car traffic data in Nantes. We conclude on overall utility of CloudHistSyr which, through its results, allows the study of massive data using existing symbolic analysis methods
APA, Harvard, Vancouver, ISO, and other styles
10

Albert-Lorincz, Hunor. "Contributions aux techniques de prise de décision et de valorisation financière." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0039/these.pdf.

Full text
Abstract:
Nous travaillons dans le contexte général de la prise de décision financière. Nous considérons d’abord le problème algorithmique de l’extraction de motifs séquentiels, par exemple depuis des séries temporelles discrètes décrivant des évolutions de cours. Nous introduisons la famille des contraintes bien partitionnées qui permettent une décomposition hiérarchique des espaces de recherche. Le cas particulier de la conjonction d’une contrainte de fréquence et d’une contrainte d’expression régulière est détaillé. On peut alors réaliser des stratégies d’élagages adaptatives qui trouvent des compromis entre l’exploitation active de contraintes non anti-monotones (e. G. , les expressions) sans pour autant se priver des possibilités d’élagage des contraintes anti-monotones (e. G. La fréquence). Nous présentons ensuite deux développements dédiés à la prise de décision financière. Nous proposons d’abord d’améliorer le pouvoir prédictif des indicateurs techniques en introduisant des signatures pour les configurations de marché et ainsi améliorer les performances des automates de trading. Ensuite, nous étudions la valorisation d’une classe particulière de produits dérivés où l’un des contreparties a le droit de rompre l’accord à une série de dates prédéterminées. Il est alors nécessaire de calculer des espérances conditionnelles à un futur état de monde, ce qui se fait traditionnellement par une double simulation Monte Carlo très gourmande en temps de calcul. Nous proposons une nouvelle technique baptisée neighbourhood Monte Carlo qui est plus que 20 fois plus rapide que les méthodes précédentes
This thesis investigates and develops tools for flnancial decision making. Our first contribution is aimed at the extraction of frequents sequential patterns from, for example, discretized flnancial lime series. We introduce well partitioned constraints that allow a hierarchical structuration of the search space for increased efficiency. In particular, we look at the conjunction of a minimal frequency constraint and a regular expression constraint. It becomes possible to build adaptative strategies that find a good balance between the pruning based on the anti-monotonic frequency and the pruning based on the regular expression constraint which is generally neither monotonie nor antimonotonic. Then, we develop two financial applications. At first, we use frequent patterns to characterise market configurations by means of signatures in order to improve some technical indicators functions for automated trading strategies. Then, we look at the pricing of Bermudan options, i. E. , a financial derivative product which allows to terminate an agreement between two parties at a set of pre-defined dates. This requires to compute double conditional expectations at a high computational cos!. Our new method, neighbourhood Monte Carlo can be up to 20 times faster th an the traditional methods
APA, Harvard, Vancouver, ISO, and other styles
11

Castellanos-Paez, Sandra. "Apprentissage de routines pour la prise de décision séquentielle." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM043.

Full text
Abstract:
Intuitivement, un système capable d'exploiter son expérience devrait être capable d'atteindre de meilleures performances. Une façon de tirer parti des expériences passées est d'apprendre des macros (c.-à-d. des routines), elle peuvent être ensuite utilisés pour améliorer la performance du processus de résolution de nouveaux problèmes. Le défi de la planification automatique est de développer des techniques de planification capables d'explorer efficacement l'espace de recherche qui croît exponentiellement. L'apprentissage de macros à partir de connaissances précédemment acquises s'avère bénéfique pour l'amélioration de la performance d'un planificateur.Cette thèse contribue principalement au domaine de la planification automatique, et plus spécifiquement à l’apprentissage de macros pour la planification classique. Nous nous sommes concentrés sur le développement d'un modèle d'apprentissage indépendant du domaine qui identifie des séquences d'actions (même non adjacentes) à partir de plans solutions connus. Ce dernier sélectionne les routines les plus utiles (c'est-à-dire les macros), grâce à une évaluation a priori, pour améliorer le domaine de planification.Tout d'abord, nous avons étudié la possibilité d'utiliser la fouille de motifs séquentiels pour extraire des séquences fréquentes d'actions à partir de plans de solutions connus, et le lien entre la fréquence d'une macro et son utilité. Nous avons découvert que la fréquence seule peut ne pas fournir une sélection cohérente de macro-actions utiles (c.-à-d. des séquences d'actions avec des objets constants).Ensuite, nous avons discuté du problème de l'apprentissage des macro-opérateurs (c'est-à-dire des séquences d'actions avec des objets variables) en utilisant des algorithmes classiques de fouille de motifs dans la planification. Malgré les efforts, nous nous sommes trouvés dans une impasse dans le processus de sélection car les structures de filtrage de la fouille de motifs ne sont pas adaptées à la planification.Finalement, nous avons proposé une nouvelle approche appelée METEOR, qui permet de trouver les séquences fréquentes d'opérateurs d'un ensemble de plans sans perte d'information sur leurs caractéristiques. Cette approche a été conçue pour l'extraction des macro-opérateurs à partir de plans solutions connus, et pour la sélection d'un ensemble optimal de macro-opérateurs maximisant le gain en nœuds. Il s'est avéré efficace pour extraire avec succès des macro-opérateurs de différentes longueurs pour quatre domaines de référence différents. De plus, grâce à la phase de sélection l'approche a montré un impact positif sur le temps de recherche sans réduire drastiquement la qualité des plans
Intuitively, a system capable of exploiting its past experiences should be able to achieve better performance. One way to build on past experiences is to learn macros (i.e. routines). They can then be used to improve the performance of the solving process of new problems. In automated planning, the challenge remains on developing powerful planning techniques capable of effectively explore the search space that grows exponentially. Learning macros from previously acquired knowledge has proven to be beneficial for improving a planner's performance. This thesis contributes mainly to the field of automated planning, and it is more specifically related to learning macros for classical planning. We focused on developing a domain-independent learning framework that identifies sequences of actions (even non-adjacent) from past solution plans and selects the most useful routines (i.e. macros), based on a priori evaluation, to enhance the planning domain.First, we studied the possibility of using sequential pattern mining for extracting frequent sequences of actions from past solution plans, and the link between the frequency of a macro and its utility. We found out that the frequency alone may not provide a consistent selection of useful macro-actions (i.e. sequences of actions with constant objects).Second, we discussed the problem of learning macro-operators (i.e. sequences of actions with variable objects) by using classic pattern mining algorithms in planning. Despite the efforts, we find ourselves in a dead-end with the selection process because the pattern mining filtering structures are not adapted to planning.Finally, we provided a novel approach called METEOR, which ensures to find the frequent sequences of operators from a set of plans without a loss of information about their characteristics. This framework was conceived for mining macro-operators from past solution plans, and for selecting the optimal set of macro-operators that maximises the node gain. It has proven to successfully mine macro-operators of different lengths for four different benchmarks domains and thanks to the selection phase, be able to deliver a positive impact on the search time without drastically decreasing the quality of the plans
APA, Harvard, Vancouver, ISO, and other styles
12

Buitrago, Hurtado Alex Fernando. "Aide à la prise de décision stratégique : détection de données pertinentes de sources numériques sur Internet." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENG002/document.

Full text
Abstract:
Le domaine de notre recherche est la décision stratégique au sein des organisations. Plus précisément il s'agit de l'aide à la prise de décision stratégique et de la problématique de l'acquisition des informations utiles pour de telles décisions. D'un côté les ‘informations de terrain' issus des contacts entre personnes, des réunions professionnelles, etc. demeurent essentielles pour les dirigeants. D'un autre côté les journaux quotidiens nationaux et internationaux fournissent un volume considérable de données que l'on peut qualifier de données brutes (Raw data). Mais, outre ces sources classiques, le recueil des informations a évolué de façon considérable avec l'avènement des technologies de l'information et notamment de l'Internet pour ce qui concerne dans notre recherche. Nous avons choisi le domaine concernant l'acquisition des informations de terrain fournies par les journaux nationaux quotidiens : les journaux quotidiens colombiens pour ce qui concernera notre étude empirique. Pour acquérir cette information nous avons proposé sur la base d'une recherche du type « Action Design Research », de concevoir, de construire et d'expérimenter un artéfact permettant de détecter des signaux faibles potentiels issus des données extraites d'Internet et qui aideraient les dirigeants de l'entreprise à découvrir et comprendre leur environnement. L'artéfact a été conçu et construit en deux phases utilisant des concepts théoriques liés à la surcharge de données, à la veille stratégique notamment la VAS-IC® (Veille Anticipative Stratégique – Intelligence Collective) et sur les caractéristiques souhaitables des systèmes informatisés d'aide à la décision stratégique. Après sa construction, l'artéfact a été expérimenté sur un terrain permettant d'évaluer son effectivité. Cette expérimentation a permis d'améliorer nos connaissances sur la pertinence des données numériques dans le processus de la prise de la décision. Les décideurs impliqués ont également pu d'intégrer des nouvelles pratiques adaptées à leurs besoins d'information
Our research area is around the strategic decision within organizations. More precisely, it is applicable as an aid for strategic decision-making and detecting useful information for such decisions. On the one hand, the ‘information from the field' from the contacts between individuals, business meetings, etc. is always essential for managers. On the other hand, national and international newspapers can provide a considerable volume of data that can be defined as the raw data. However, besides these classical sources, gathering information has changed dramatically with the advent of information technology and particularly internet that is related to our research. We chose the area for the acquisition of ‘information from the field' provided by the national daily newspapers: the Colombian newspaper which concerns to our empirical study. In order to detect weak signals of potential internet base issues which help managers to discover and understand their environment, we proposed a research based on “Action Design Research” type and then applied for designing, building and testing an artifact to gain the required information. The artifact has been designed and built in two phases that is included of using theoretical concepts about the data overload, environmental scanning particularly the “anticipatory and collective environmental scanning model” (VAS-IC®) and the desirable characteristics of strategic decision making support systems. After its construction, the artifact applied to real experimentation that has allowed us to evaluate its effectiveness. Afterwards, we improved our knowledge about the relevance of digital data in the decision making process. The results of all the involved decision makers have been able to integrate these new practices into their information needs
APA, Harvard, Vancouver, ISO, and other styles
13

Dossa, Maximilien. "Aide à la modélisation et au traitement de données massives : proposition d'un guide méthodologique." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTD030.

Full text
Abstract:
Le monde des entreprises a connu par le phénomène du Big Data un bouleversement extraordinaire. Véritable Big Bang technologique, le Big Data a ouvert des perspectives formidables en matière de développement par le biais du traitement et de l’analyse des données qu’il génère. Dans l’absolu, le potentiel que contient le Big Data est un élément majeur en matière de compétitivité mais il apparait cependant aujourd’hui que la maîtrise de ce potentiel est fortement compromise ou freinée par une somme de problématiques liées à l’ampleur du phénomène ; les méthodologies traditionnelles s’essoufflent et se montrent de moins en moins performantes. Cette recherche propose d’apporter une contribution susceptible de faciliter le passage entre une analyse classique et une analyse novatrice en environnement Big Data. En suivant la méthodologie de la Science du Design, nous proposons de créer un artefact, sous forme de guide méthodologique, composé d’un ensemble de solutions de machine learning empruntées aux Data Science, mis à disposition des entreprises pour aider à l’accès, à la compréhension, à l’utilisation et à l’analyse des données massives
.The world of corporations was revolutionized under the impact of the Big Data phenomenon. Truly a technological Big Bang, Big Data opened many doors towards research and development because of the analysis and treatment it requires. Big Data has always been recognized with a highly competitive potential, however today it appears that there is trouble in controlling this potential. The reason is a number of problems arising linked to size of the revolution; traditional methods are starting to be obsolete and are less effective. This research aims at proposing a contribution to making the transition easier between a classical analysis and innovative analysis. Following the methodology of the Science of Design, we propose creating an artifact that takes form in a methodological guide. It will be composed of a set of machine learning solutions that take root in data science. They will be made available to companies to help the access, the comprehension, and the usage of Big Data
APA, Harvard, Vancouver, ISO, and other styles
14

Denis, Marie-Chantal. "Conception et réalisation d'un entrepôt de données institutionnel dans une perspective de support à la prise de décision." Thèse, Université du Québec à Trois-Rivières, 2008. http://depot-e.uqtr.ca/1267/1/030077904.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Ratté, Stéphane. "Étude comparative randomisée de l’efficacité et de l’impact sur la prise de décision clinique en médecine familiale de deux moteurs de recherche médicaux : InfoClinique et TRIP Database." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28993/28993.pdf.

Full text
Abstract:
Cette étude randomisée visait à comparer l’efficacité et l’impact sur le processus de décision clinique en médecine familiale de deux moteurs de recherche médicaux : InfoClinique et TRIP Database. Quinze résidents en médecine familiale ont répondu à 20 questions cliniques portant sur des interventions thérapeutiques ou préventives avant et après une recherche initiée au hasard avec InfoClinique ou TRIP Database. En plus de donner les réponses aux questions cliniques, les participants ont rempli des questionnaires en ligne pour évaluer l’impact du moteur de recherche sur le processus de prise de décision. L’efficacité à trouver une réponse correcte aux questions et l’impact des informations trouvées sur le processus de prise de décision clinique ont été similaires à la suite de la recherche initiée avec InfoClinique et TRIP Database. La proportion de réponses correctes observée avant la recherche (25%) a augmenté de façon importante et similaire après la recherche initiale avec les deux moteurs de recherche passant à 63%. Le choix d’utiliser l’un ou l’autre des moteurs de recherche pourrait reposer sur des préférences ergonomiques, géographiques ou linguistiques.
APA, Harvard, Vancouver, ISO, and other styles
16

Ficheur, Grégoire. "Réutilisation de données hospitalières pour la recherche d'effets indésirables liés à la prise d'un médicament ou à la pose d'un dispositif médical implantable." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S015/document.

Full text
Abstract:
Introduction : les effets indésirables associés à un traitement médicamenteux ou à la pose d'un dispositif médical implantable doivent être recherchés systématiquement après le début de leur commercialisation. Les études réalisées pendant cette phase sont des études observationnelles qui peuvent s'envisager à partir des bases de données hospitalières. L'objectif de ce travail est d'étudier l'intérêt de la ré-utilisation de données hospitalières pour la mise en évidence de tels effets indésirables.Matériel et méthodes : deux bases de données hospitalières sont ré-utilisées pour les années 2007 à 2013 : une première contenant 171 000 000 de séjours hospitaliers incluant les codes diagnostiques, les codes d'actes et des données démographiques, ces données étant chaînées selon un identifiant unique de patient ; une seconde issue d'un centre hospitalier contenant les mêmes types d'informations pour 80 000 séjours ainsi que les résultats de biologie médicale, les administrations médicamenteuses et les courriers hospitaliers pour chacun des séjours. Quatre études sont conduites sur ces données afin d'identifier d'une part des évènements indésirables médicamenteux et d'autre part des évènements indésirables faisant suite à la pose d'un dispositif médical implantable.Résultats : la première étude démontre l'aptitude d'un jeu de règles de détection à identifier automatiquement les effets indésirables à type d'hyperkaliémie. Une deuxième étude décrit la variation d'un paramètre de biologie médicale associée à la présence d'un motif séquentiel fréquent composé d'administrations de médicaments et de résultats de biologie médicale. Un troisième travail a permis la construction d'un outil web permettant d'explorer à la volée les motifs de réhospitalisation des patients ayant eu une pose de dispositif médical implantable. Une quatrième et dernière étude a permis l'estimation du risque thrombotique et hémorragique faisant suite à la pose d'une prothèse totale de hanche.Conclusion : la ré-utilisation de données hospitalières dans une perspective pharmacoépidémiologique permet l'identification d'effets indésirables associés à une administration de médicament ou à la pose d'un dispositif médical implantable. L'intérêt de ces données réside dans la puissance statistique qu'elles apportent ainsi que dans la multiplicité des types de recherches d'association qu'elles permettent
Introduction:The adverse events associated with drug administration or placement of an implantable medical device should be sought systematically after the beginning of the commercialisation. Studies conducted in this phase are observational studies that can be performed from hospital databases. The objective of this work is to study the interest of the re-use of hospital data for the identification of such an adverse event.Materials and methods:Two hospital databases have been re-used between the years 2007 to 2013: the first contains 171 million inpatient stays including diagnostic codes, procedures and demographic data. This data is linked with a single patient identifier; the second database contains the same kinds of information for 80,000 stays and also the laboratory results and drug administrations for each inpatient stay. Four studies were conducted on these pieces of data to identify adverse drug events and adverse events following the placement of an implantable medical device.Results:The first study demonstrates the ability of a set of detection of rules to automatically identify adverse drug events with hyperkalaemia. The second study describes the variation of a laboratory results associated with the presence of a frequent sequential pattern composed of drug administrations and laboratory results. The third piece of work enables the user to build a web tool exploring on the fly the reasons for rehospitalisation of patients with an implantable medical device. The fourth and final study estimates the thrombotic and bleeding risks following a total hip replacement.Conclusion:The re-use of hospital data in a pharmacoepidemiological perspective allows the identification of adverse events associated with drug administration or placement of an implantable medical device. The value of this data is the amount statistical power they bring as well as the types of associations they allow to analyse
APA, Harvard, Vancouver, ISO, and other styles
17

Poirier, Canelle. "Modèles statistiques pour les systèmes d'aide à la décision basés sur la réutilisation des données massives en santé : application à la surveillance syndromique en santé publique." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B019.

Full text
Abstract:
Depuis plusieurs années, la notion de Big Data s'est largement développée. Afin d'analyser et explorer toutes ces données, il a été nécessaire de concevoir de nouvelles méthodes et de nouvelles technologies. Aujourd'hui, le Big Data existe également dans le domaine de la santé. Les hôpitaux en particulier, participent à la production de données grâce à l'adoption du dossier patient électronique. L'objectif de cette thèse a été de développer des méthodes statistiques réutilisant ces données afin de participer à la surveillance syndromique et d'apporter une aide à la décision. Cette étude comporte 4 axes majeurs. Tout d'abord, nous avons montré que les données massives hospitalières étaient très corrélées aux signaux des réseaux de surveillance traditionnels. Dans un second temps, nous avons établi que les données hospitalières permettaient d'obtenir des estimations en temps réel plus précises que les données du web, et que les modèles SVM et Elastic Net avaient des performances comparables. Puis, nous avons appliqué des méthodes développées aux Etats-Unis réutilisant les données hospitalières, les données du web (Google et Twitter) et les données climatiques afin de prévoir à 2 semaines les taux d'incidence grippaux de toutes les régions françaises. Enfin, les méthodes développées ont été appliquées à la prévision à 3 semaines des cas de gastro-entérite au niveau national, régional, et hospitalier
Over the past few years, the Big Data concept has been widely developed. In order to analyse and explore all this data, it was necessary to develop new methods and technologies. Today, Big Data also exists in the health sector. Hospitals in particular are involved in data production through the adoption of electronic health records. The objective of this thesis was to develop statistical methods reusing these data in order to participate in syndromic surveillance and to provide decision-making support. This study has 4 major axes. First, we showed that hospital Big Data were highly correlated with signals from traditional surveillance networks. Secondly, we showed that hospital data allowed to obtain more accurate estimates in real time than web data, and SVM and Elastic Net models had similar performances. Then, we applied methods developed in United States reusing hospital data, web data (Google and Twitter) and climatic data to predict influenza incidence rates for all French regions up to 2 weeks. Finally, methods developed were applied to the 3-week forecast for cases of gastroenteritis at the national, regional and hospital levels
APA, Harvard, Vancouver, ISO, and other styles
18

Chu, Junfei. "Méthodes d’amélioration pour l'évaluation de l'enveloppement des données évaluation de l'efficacité croisée." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC096/document.

Full text
Abstract:
L'évaluation croisée d'efficacité basée sur la data envelopment analysis (DEA) a été largement appliquéepour l'évaluation d'efficacité et le classement des unités de prise de décision (decision-making units, DMUs). A l’heureactuelle, cette méthode présente toujours deux défauts majeurs : la non-unicité des poids optimaux attachés aux entréeset aux sorties et la non Pareto-optimalité des résultats d’évaluation. Cette thèse propose des méthodes alternatives poury remédier. Nous montrons d’abord que les efficacités croisées visées dans les modèles traditionnels avec objectifssecondaires ne sont pas toujours atteignables pour toutes les DMUs. Nous proposons ensuite un modèle capable detoujours fournir des objectifs d'efficacité croisée atteignables pour toutes les DMUs. Plusieurs nouveaux modèles avecobjectifs secondaires bienveillants ou agressifs et un modèle neutre sont proposés. Un exemple numérique est utilisépour comparer les modèles proposés à ceux qui existent dans la littérature. Nous présentons ensuite une approched'évaluation croisée d'efficacité basée sur l'amélioration de Pareto. Cette approche est composée de deux modèles etd’un algorithme. Les modèles sont utilisés respectivement pour estimer si un ensemble donné de scores d’efficacitécroisée est Pareto-optimal et pour améliorer l’efficacité croisée de cet ensemble si cela est possible. L'algorithme estutilisé pour générer un ensemble Pareto-optimal de scores d'efficacité croisée pour les DMUs. L'approche proposéeest finalement appliquée pour la sélection de projets de R&D et comparée aux approches traditionnelles. En outre,nous proposons une approche d’évaluation croisée d’efficacité qui traite simultanément les deux problématiquesmentionnées ci-dessus. Un modèle de jeu de négociation croisée est proposé pour simuler la négociation entre chaquecouple de DMUs au sein du groupe afin d'identifier un ensemble unique de poids à utiliser pour le calcul de l'efficacitécroisée entre eux. De plus, un algorithme est développé pour résoudre ce modèle via une suite de programmes linéaires.L'approche est finalement illustrée en l'appliquant à la sélection des fournisseurs verts. Enfin, nous proposons uneévaluation croisée d'efficacité basée sur le degré de satisfaction. Nous introduisons d'abord la nation de degré desatisfaction de chaque DMU sur les poids optimaux sélectionnés par les autres. Ensuite, un modèle max-min est fournipour déterminer un ensemble des poids optimaux pour chaque DMU afin de maximiser tous les degrés de satisfactiondes DMUs. Deux algorithmes sont ensuite développés pour résoudre le modèle et garantir l’unicité des poids optimauxde chaque DMU, respectivement. Enfin, l’approche proposée est appliquée sur une étude des cas pour la sélection detechnologies
Data envelopment analysis (DEA) cross-efficiency evaluation has been widely applied for efficiencyevaluation and ranking of decision-making units (DMUs). However, two issues still need to be addressed: nonuniquenessof optimal weights attached to the inputs and outputs and non-Pareto optimality of the evaluationresults. This thesis proposes alternative methods to address these issues. We first point out that the crossefficiencytargets for the DMUs in the traditional secondary goal models are not always feasible. We then givea model which can always provide feasible cross-efficiency targets for all the DMUs. New benevolent andaggressive secondary goal models and a neutral model are proposed. A numerical example is further used tocompare the proposed models with the previous ones. Then, we present a DEA cross-efficiency evaluationapproach based on Pareto improvement. This approach contains two models and an algorithm. The models areused to estimate whether a given set of cross-efficiency scores is Pareto optimal and to improve the crossefficiencyscores if possible, respectively. The algorithm is used to generate a set of Pareto-optimal crossefficiencyscores for the DMUs. The proposed approach is finally applied for R&D project selection andcompared with the traditional approaches. Additionally, we give a cross-bargaining game DEA cross-efficiencyevaluation approach which addresses both the issues mentioned above. A cross-bargaining game model is proposedto simulate the bargaining between each pair of DMUs among the group to identify a unique set of weights to beused in each other’s cross-efficiency calculation. An algorithm is then developed to solve this model by solvinga series of linear programs. The approach is finally illustrated by applying it to green supplier selection. Finally,we propose a DEA cross-efficiency evaluation approach based on satisfaction degree. We first introduce theconcept of satisfaction degree of each DMU on the optimal weights selected by the other DMUs. Then, a maxminmodel is given to select the set of optimal weights for each DMU which maximizes all the DMUs’satisfaction degrees. Two algorithms are given to solve the model and to ensure the uniqueness of each DMU’soptimal weights, respectively. Finally, the proposed approach is used for a case study for technology selection
APA, Harvard, Vancouver, ISO, and other styles
19

Ben, Taleb Romain. "Modélisation et optimisation des actifs pour l'aide à la prise de décision stratégique dans les entreprises." Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2024. http://www.theses.fr/2024EMAC0001.

Full text
Abstract:
Les outils et méthodes d'aide à la décision stratégique, notamment utilisés dans les PME, font face à plusieurs limites. On note qu'ils sont essentiellement déterministes, basés sur des données passées, et sont cadrés par une approche quasi exclusivement comptable et financière. Pourtant, les décisions stratégiques en entreprise sont des activités tournées vers le futur, fortement soumis à incertitude qui visent à maximiser la valeur générée de l'entreprise qu'elle soit financière ou non. Dans ce contexte, la question de recherche adressée dans cette thèse est comment aider les dirigeants d'entreprise à prendre des décisions stratégiques prospectives dans un contexte soumis à une incertitude ? En termes de contributions, nous proposons d'abord un cadre conceptuel basé sur méta-modèle qui permet de représenter une entreprise selon une logique d'actifs et de valeur. Cette modélisation est ensuite enrichie d'un diagramme de causalité qui établit la dynamique existante entre les actifs permettant de créer de la valeur. Pour illustrer l'applicabilité de ce cadre conceptuel, on propose une approche par plan d'expériences basée sur un modèle de simulation d'une part, et un modèle d'optimisation en Programmation Mixte en Nombres Entiers d'autre part. Un ensemble d'expérimentations permet de valider la pertinence de la proposition et notamment d'identifier les conséquences des décisions prises sur chaque actif en matière de valeur générée pour l'entreprise
The tools and methods used to assist in strategic decision-making, particularly in SMEs, face several limitations. It is observed that they are primarily deterministic, based on past data, and are framed by an approach that is almost exclusively accounting and financial. However, strategic decisions in a company are activities aimed towards the future, highly subject to uncertainty, which aim to maximize the generated value of the company, whether it is financial or not. In this context, the research question addressed in this thesis is how to assist business leaders in making prospective strategic decisions in a context subject to uncertainty ? In terms of contributions, we first propose a conceptual framework based on a meta-model that allows representing a company according to a logic of assets and value. This modeling is then enriched with a causality diagram that establishes the existing dynamics between the assets that create value. To illustrate the applicability of this conceptual framework, an approach is proposed using experimental design based on a simulation model on one hand, and an optimization model in Mixed Integer Programming on the other hand. A set of experiments validates the relevance of the proposal, notably identifying the consequences of the decisions made on each asset in terms of generated value for the company
APA, Harvard, Vancouver, ISO, and other styles
20

Khelifi, Mohammed Nedjib. "Méthode de conception d'un système d'information par ébauche systémique et aide à la décision." Paris 8, 1993. http://www.theses.fr/1993PA080795.

Full text
Abstract:
L'ebauche systemique est devenu un passage oblige d'une conception d'un systeme realisee dans une perspective de changement, elle est, dans cette etude, presentee comme une aide pedagogique aux futurs cadres (charges d'etude) dans divers domaines tels que la communication, sociale, l'economie, le commerce etc. . . Elle est destinee a l'amelioration des comportements de communication en situation d'entretiens individuels ou en collectant les informations afin d'atteindre efficacement l'objectif. Notre objectif est de munir le charge d'etude d'outils, d'arguments, de regles, de criteres et de parametres qui lui permettront, avec l'aide d'un informaticien, de conduire un projet d'informatisation. Le concept d'information s'est enrichi et se precise, de jour en jour, grace au developpement des techniques informatiques. La modelisation s'applique a toute representation ou transcription abstraite d'une realite concrete et qu'elle joue, au niveau scientifique, un role essentiel dans la recherche grace a des differentes representations. Une recherche theorique permettant d'apporter une solution au probleme de modelisation totale du systeme d'information permettrait d'envisager, pour l'avenir, une methodologie de conception de l'ensemble du systeme d'information dont les resultats pratiques seraient la conception et la structuration de la base de donnees
The systemic preliminary model has become a due way for the conception of a system realised in a perspective of change. In this research work, it is presented as a pedagogic help for future managers in various fields such as communication, economics, business, sociology etc. . . It is destined to improve the communication behaviours during individual interviews or to collect information in order to reach the aim in the most efficient way. Our aim (goal) is to give the survey manager tools, arguments, rules, criteria and parameters to enable him with the assistance of a programmer, to get through and to achieve a project. The concept of information has improved and gets more precise from day to day tanks to the developement of programming technics keeping in mind the fact that modelisation applies to every representation or abstract transcription of a concrete reality and plays at the scientific level an essential part in the research thanks to various representations. A theoretical research capable of solving the problem of complete modelisation of the system of information would allow to foresee for the future a conception methodology of the complete information system, the conception and structuration of overtated database
APA, Harvard, Vancouver, ISO, and other styles
21

Hammami, Inès. "Systèmes d'information et performance de la prise de décision : étude théorique et étude expérimentale dans le cas des systèmes à base d'entrepôt de données." Nice, 2001. http://www.theses.fr/2001NICE0033.

Full text
Abstract:
La présente étude se veut une tentative pour :1)expliquer la relation existant entre la performance de la décision semi-structurée ou celle qui est non-structurée et l'informatique décisionnelle à travers le processus du Datawarehousing ; 2) déterminer les facteurs du système d'information organisationnel sur lesquels le Data Warehouse peur agir. Les données recueillies auprès de cent quatre vingt-deux (182) personnes pratiquant le concept du Data Warehouse démontrent que son utilisation pour l'aide à la décision a un impact important sur la performance de la décision stratégique. Ce constat est confirmé par une recherche empirique menée en entreprise démontrant la supériorité du concept Data Warehouse sur l'architecture SGBDR la plus répandue dans les organisations.
APA, Harvard, Vancouver, ISO, and other styles
22

Lopez, Orozco Francisco. "Modélisation cognitive computationnelle de la recherche d'information utilisant des données oculomotrices." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENS013/document.

Full text
Abstract:
Cette thèse en informatique présente un travail de modélisation cognitive computationnelle, à partir de données de mouvements oculaires lors de tâches de recherche d'information dans des textes. Nous nous intéressons à cette situation quotidienne de recherche d'informations dans un journal ou une page web, dans laquelle il faut juger si un texte est sémantiquement relié ou non à un but, exprimé par quelques mots. Parce que le temps est souvent une contrainte, les textes ne sont souvent pas entièrement lus avant qu'intervienne la décision. Plus précisément, nous avons analysé les mouvements des yeux dans deux tâches de recherche d'information consistant à lire un paragraphe et à décider rapidement i) s'il est associé à un but donné et ii) s'il est plus associé à un but donné qu'un autre paragraphe traité auparavant. Un modèle est proposé pour chacune de ces situations. Nos simulations sont réalisées au niveau des fixations et des saccades oculaires. En particulier, nous prédisons le moment auquel les participants décident d'abandonner la lecture du paragraphe parce qu'ils ont suffisamment d'information pour prendre leur décision. Les modèles font ces prédictions par rapport aux mots qui sont susceptibles d'être traités avant que le paragraphe soit abandonné. Les jugements d'association sémantiques humains sont reproduits par le calcul des similarités sémantiques entre mots produits par l'analyse de la sémantique latente (LSA, Landauer et al., 2007). Nous avons suivi une approche statistique paramétrique dans la construction de nos modèles. Ils sont basés sur un classifieur bayésien. Nous proposons un seuil linéaire bi-dimensionnel pour rendre compte de la décision d'arrêter de lire un paragraphe, utilisant le Rang de la fixation et i) la similarité sémantique (Cos) entre le paragraphe et le but ainsi que ii) la différence de similarité sémantique (Gap) entre chaque paragraphe et le but. Pour chacun des modèles, les performances montrent que nous sommes capables de reproduire en moyenne le comportement des participants face aux tâches de recherche d'information étudiées durant cette thèse. Cette thèse comprend deux parties principales : 1) la conception et la passation d'expériences psychophysiques pour acquérir des données de mouvements oculaires et 2) le développement et le test de modèles cognitifs computationnels
This computer science thesis presents a computational cognitive modeling work using eye movements of people faced to different information search tasks on textual material. We studied situations of everyday life when people are seeking information on a newspaper or a web page. People should judge whether a piece of text is semantically related or not to a goal expressed by a few words. Because quite often time is a constraint, texts may not be entirely processed before the decision occurs. More specifically, we analyzed eye movements during two information search tasks: reading a paragraph with the task of quickly deciding i) if it is related or not to a given goal and ii) whether it is better related to a given goal than another paragraph processed previously. One model is proposed for each of these situations. Our simulations are done at the level of eye fixations and saccades. In particular, we predicted the time at which participants would decide to stop reading a paragraph because they have enough information to make their decision. The models make predictions at the level of words that are likely to be fixated before a paragraph is abandoned. Human semantic judgments are mimicked by computing the semantic similarities between sets of words using Latent Semantic Analysis (LSA) (Landauer et al., 2007). We followed a statistical parametric approach in the construction of our models. The models are based on a Bayesian classifier. We proposed a two-variable linear threshold to account for the decision to stop reading a paragraph, based on the Rank of the fixation and i) the semantic similarity (Cos) between the paragraph and the goal and ii) the difference of semantic similarities (Gap) between each paragraph and the goal. For both models, the performance results showed that we are able to replicate in average people's behavior faced to the information search tasks studied along the thesis. The thesis includes two main parts: 1) designing and carrying out psychophysical experiments in order to acquire eye movement data and 2) developing and testing the computational cognitive models
APA, Harvard, Vancouver, ISO, and other styles
23

Meunier, François. "Prédiction de phénomènes géologiques pour l'aide à la décision lors de la prise de permis d'exploitation." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS351.

Full text
Abstract:
Dans le domaine de l'intelligence artificielle, l'apprentissage automatique (ou Machine Learning) voit son importance grandir de jour en jour. Des structures toujours plus complexes tendent à être étudiées par ce biais, haussant ainsi l'information disponible au rang de connaissance exploitable. Ce travail de doctorat propose de valoriser un certain type de données que sont les objets (structures) 3D construits à partir de maillage, en justifiant empiriquement les apports indéniables d'une extraction de sous-parties issues de ces derniers. Cet objectif est atteint en résolvant un problème de prévision par une nouvelle approche de classification supervisée pour la recommandation d'information. Au delà du résultat attendu, une justification de ce dernier est également fournie sous forme de la visualisation de sous-parties extraites discriminantes, permettant ainsi l'interprétation par le spécialiste. Au sein du service Exploration de Total, ce besoin de classification s'applique initialement aux grandes structures 3D telles que les géo-modèles de bassins géologiques, dont les éléments pertinents tiennent effectivement de sous-parties. Lors de l'étude d'un sous-sol, les géologues cherchent, à partir de données 3D reconstituées grâce à des ondes acoustiques, à comprendre le sous-sol. Cette compréhension peut être aidée en fournissant un moyen de détecter certains types de formes au sein de ces structures. Nous proposons logiquement, afin de répondre à ce problème, un système de classification de ces structures 3D. Grâce à une adaptation des Time Series Shapelets et des méthodes de sélection de features, on parvient à ne sélectionner que les parties les plus pertinentes pour la classification souhaitée. L'idée maîtresse consiste à extraire aléatoirement un certain nombre de sous-surfaces de chaque objet 3D du jeu d'apprentissage, puis à en étudier la pertinence pour la classification souhaitée, avant d'utiliser les plus pertinents pour un apprentissage plus classique basé sur le degré d'imbrication de l'extrait dans chaque objet. En entreprise, l'absence de justification des résultats tend à assimiler l'apprentissage automatique à une boite noire. La méthode proposée, quant à elle, corrige ce problème, et permet la compréhension du résultat de l'aide à la décision fournie par la classification mise en place. En effet, en plus de présenter des résultats de prévision légèrement meilleurs que ceux de l'état de l'art, elle offre une visualisation des sous-parties d'objets 3D les plus discriminantes et donc les zones qui auront le plus d'influence sur la classification des données. Par la suite, nous proposons une amélioration de cette méthode sur deux axes: le premier est l'apport d'une adaptation du transfert de connaissances (ou transfer learning) appliqué à l'algorithme précédemment proposé ; le second est la mise en œuvre d'une méthode novatrice de sélection d'attributs, basée sur des outils issus de la théorie des sous-ensembles flous, est introduite. Cette dernière s'avère être potentiellement applicable à tout type de sélection d'attributs en classification supervisée. Les multiples résultats obtenus confirment le potentiel général de la sélection aléatoire d'attributs candidats, en particulier dans un contexte de grandes quantités de données
Machine learning, which is considered as an integral part of artificial intelligence, and should ultimately make computers "smart", continues to grow with time, and opens unsuspicious horizons. More and more complex structures tend to be studied by this way, raising the available information to the level of exploitable knowledge. This doctoral work proposes to valorize a particular type of data that are the 3D objects (structures) constructed from mesh, by empirically justifying the undeniable contributions of an extraction of sub-parts coming from these last one. This objective is achieved by solving a forecast problem by a new supervised classification approach for information recommendation. Beyond the expected result, a justification is also provided in the form of the visualization of sub-parts extracted discriminant, thus allowing interpretation by the specialist. In the Total Exploration service, this classification need is initially applied to large 3D structures such as geo-models of geological basins, whose relevant elements belong to sub-parts. During the study of a subsoil, geologists try to understand the subsoil by using 3D data reconstructed through acoustic waves. This understanding can be helped by providing a way to detect some types of shapes within these structures. We propose, in order to answer this problem, a classification system of these 3D structures. Thanks to an adaptation of Time series Shapelets and features selection methods, it is possible to only select the most relevant parts for the targeted classification. To summarize, the main idea is to randomly extract a certain number of sub-surfaces from each 3D object of the learning set, then to study its relevance depending on the expected classification, before using the most relevant one for a more traditional learning based on the degree of belonging of the extract in each object. In industrial companies, the lack of justification of results tends to assimilate machine learning techniques to a black box. The proposed method, however, corrects this problem, and allows the understanding of the result of the decision support provided by the classification built. Indeed, in addition to presenting slightly better forecast results than those provided by the state of the art, it offers a visualization of the sub-parts of the most discriminating 3D objects within the framework of the implemented classification model, and therefore the areas that will have mostly allowed to classify the data. Subsequently, we propose an improvement of this method by two main paths: the first one is the contribution of an adaptation of the transfer of knowledge (or transfer learning applied to the previously proposed algorithm; the second one is an innovative method of attribute selection, based on tools derived from fuzzy subset theory, which proves to be potentially applicable to any type of attribute selection challenge in supervised classification. These multiple results confirm the general potential of random selection of candidate attributes, especially in the context of large amounts of data
APA, Harvard, Vancouver, ISO, and other styles
24

Dantan, Jérôme. "Une approche systémique unifiée pour l’optimisation durable des systèmes socio-environnementaux : ingénierie des systèmes de décision en univers incertain." Electronic Thesis or Diss., Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1045.

Full text
Abstract:
De nos jours, la durabilité des activités humaines devient une préoccupation majeure dans le monde entier. Il s’agit d’évaluer ces activités non seulement en matière d’efficacité et de productivité, mais aussi en ce qui concerne leurs durabilités économique, sociale, environnementale, etc. Pour cela, les experts de ces différents domaines doivent travailler en collaboration. Dans ce contexte, les sociétés humaines sont confrontées à plusieurs défis majeurs qui sont les suivants : (1) traiter de grandes quantités d’informations (« big data »), (2) évoluer dans un monde réel dynamique et imparfait, (3) prévoir et évaluer les états futurs de ses activités.Les recherches que nous avons menées dans cette thèse contribuent plus particulièrement au domaine de l’ingénierie des systèmes de décision en univers incertain. Nous prenons comme objet d'étude général le domaine des systèmes socio-environnementaux, et plus particulièrement le domaine pluridisciplinaire de l’agriculture. Nous proposons une approche systémique pour l’optimisation durable des systèmes socio-environnementaux : (1) la méta-modélisation des systèmes socio-environnementaux, (2) la représentation générique de l’imperfection des informations qui circulent dans ces systèmes, associée à un modèle de décision en contexte incertain et enfin (3) la simulation et l’évaluation de ces systèmes en environnement dynamique en vue de prises de décisions par des experts, que nous avons illustrée par un modèle d’architecture orientée services ainsi que des études de cas appliquées au domaine de l’agriculture
Nowadays, the sustainability of human activities is a major worldwide concern. The challenge is to evaluate such activities not only in terms of efficiency and productivity, but also in terms of their economic, social, environmental, etc. durability. For this, the experts of these areas need to work collaboratively. In this context, human societies are facing several major challenges such as: (1) process a large amount of information whose volume increases exponentially (“big data”), (2) live in a both dynamic and imperfect real world, (3) predict and assess future states of its activities.The researches we have conducted in this thesis contribute in particular to the domain of decision systems engineering under uncertainty. We have chosen the field of general socio-environmental systems as subject of study, particularly the multidisciplinary field of agriculture. We propose a systemic approach for the sustainable optimization of socio-environmental systems: (1) the meta-modeling of socio-environmental systems, (2) the generic representation of data imperfection flowing in such systems, associated to a decision model in uncertain environment and finally (3) the simulation and the assessment of such systems in dynamic environment for the purpose of decision making by experts which we have illustrated by both a service-oriented architecture model and case studies applied to the agriculture domain
APA, Harvard, Vancouver, ISO, and other styles
25

Leitzelman, Mylène. "Mise en place d'un système d'informations stratégiques multicritères facilitant l'intégration des ressources régionales et la prise de décision dans le domaine de l'environnement Application à la ville de Marseille." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30078.

Full text
Abstract:
Un systeme d'information peut etre considere sous deux plans, le plan conceptuel car c'est un systeme et le plan technique, car il est aussi constitue d'elements techniques. La premiere partie est consacree a l'imbrication de ces deux plans. Apres une premiere analyse systemique du concept systeme d'information, qui met en lumiere le jeu des interactions de ses elements constitutifs avec l'environnement exterieur dans lequel il est applique, nous debouchons sur une tentative de typologie qui place les systemes d'information existants dans une matrice dont l'axe du pouvoir sur l'information et l'axe des types de besoins en informations departagent les differents cas etudies. Cette approche systemique nous a servis de methode constructive dans la mise en place du cas concret du systeme d'information environnement (sie) pour la ville de marseille. Les acteurs et leur flux d'information ainsi que les choix techniques et technologiques ont ete etudies un a un pour finalement etre assembles dans un serveur internet dont le volet informationnel, le volet relationnel et le volet des indicateurs environnementaux sont tour a tour expliques au regard des divers degres de complexite d'acces a l'information sur internet. Finalement, les deux ans d'existence du serveur sur le reseau mondial nous ont conduits a faire l'evaluation de ce projet. Nous avons choisi un melange d'analyses formelles et moyens d'evaluation informels, d'une part pour arriver a cerner le comportement des utilisateurs du serveur et, d'autre part, pour tenter de trouver a l'aide de techniques de bibliometrie et d'infometrie des moyens de validation efficaces des acteurs scientifiques et industriels impliques dans le projet. Cette derniere partie nous a en fin de compte permis d'emettre des propositions d'evaluation dans le cadre d'une meilleure appropriation du systeme d'information environnement par tous les partenaires actuels et a venir du sie.
APA, Harvard, Vancouver, ISO, and other styles
26

Gay, Antonin. "Pronostic de défaillance basé sur les données pour la prise de décision en maintenance : Exploitation du principe d'augmentation de données avec intégration de connaissances à priori pour faire face aux problématiques du small data set." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0059.

Full text
Abstract:
Cette thèse CIFRE est un projet commun entre ArcelorMittal et le laboratoire CRAN, dont l'objectif est d'optimiser la prise de décision en maintenance industrielle par l'exploitation des sources d'information disponibles, c'est-à-dire des données et des connaissances industrielles, dans le cadre des contraintes industrielles présentées par le contexte sidérurgique. La stratégie actuelle de maintenance des lignes sidérurgiques est basée sur une maintenance préventive régulière. L'évolution de la maintenance préventive vers une stratégie dynamique se fait par le biais de la maintenance prédictive. La maintenance prédictive a été formalisée au sein du paradigme Prognostics and Health Management (PHM) sous la forme d'un processus en sept étapes. Parmi ces étapes de la PHM, le travail de ce doctorat se concentre sur la prise de décision et le pronostic. En regard de cette maintenance prédictive, le contexte de l'Industrie 4.0 met l'accent sur les approches basées sur les données, qui nécessitent une grande quantité de données que les systèmes industriels ne peuvent pas fournir systématiquement. La première contribution de la thèse consiste donc à proposer une équation permettant de lier les performances du pronostic au nombre d'échantillons d'entraînement disponibles. Cette contribution permet de prédire quelles performances le pronostic pourraient atteindre avec des données supplémentaires dans le cas de petits jeux de données (small datasets). La deuxième contribution de la thèse porte sur l'évaluation et l'analyse des performances de l'augmentation de données appliquée au pronostic sur des petits jeux de données. L'augmentation de données conduit à une amélioration de la performance du pronostic jusqu'à 10%. La troisième contribution de la thèse est l'intégration de connaissances expertes au sein de l'augmentation de données. L'intégration de connaissances statistiques s'avère efficace pour éviter la dégradation des performances causée par l'augmentation de données sous certaines conditions défavorables. Enfin, la quatrième contribution consiste en l'intégration des résultats du pronostic dans la modélisation des coûts de la prise de décision en maintenance et en l'évaluation de l'impact du pronostic sur ce coût. Elle démontre que (i) la mise en œuvre de la maintenance prédictive réduit les coûts de maintenance jusqu'à 18-20% et (ii) l'amélioration de 10% du pronostic peut réduire les coûts de maintenance de 1% supplémentaire
This CIFRE PhD is a joint project between ArcelorMittal and the CRAN laboratory, with theaim to optimize industrial maintenance decision-making through the exploitation of the available sources of information, i.e. industrial data and knowledge, under the industrial constraints presented by the steel-making context. Current maintenance strategy on steel lines is based on regular preventive maintenance. Evolution of preventive maintenance towards a dynamic strategy is done through predictive maintenance. Predictive maintenance has been formalized within the Prognostics and Health Management (PHM) paradigm as a seven steps process. Among these PHM steps, this PhD's work focuses on decision-making and prognostics. The Industry 4.0 context put emphasis on data-driven approaches, which require large amount of data that industrial systems cannot ystematically supply. The first contribution of the PhD consists in proposing an equation to link prognostics performances to the number of available training samples. This contribution allows to predict prognostics performances that could be obtained with additional data when dealing with small datasets. The second contribution of the PhD focuses on evaluating and analyzing the performance of data augmentation when applied to rognostics on small datasets. Data augmentation leads to an improvement of prognostics performance up to 10%. The third contribution of the PhD consists in the integration of expert knowledge into data augmentation. Statistical knowledge integration proved efficient to avoid performance degradation caused by data augmentation under some unfavorable conditions. Finally, the fourth contribution consists in the integration of prognostics in maintenance decision-making cost modeling and the evaluation of prognostics impact on maintenance decision cost. It demonstrates that (i) the implementation of predictive maintenance reduces maintenance cost up to 18-20% and ii) the 10% prognostics improvement can reduce maintenance cost by an additional 1%
APA, Harvard, Vancouver, ISO, and other styles
27

Lopez, orozco Francisco. "Modélisation cognitive computationnelle de la recherche d'information utilisant des données oculomotrices." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00910178.

Full text
Abstract:
Cette thèse en informatique présente un travail de modélisation cognitive computationnelle, à partir de données de mouvements oculaires lors de tâches de recherche d'information dans des textes. Nous nous intéressons à cette situation quotidienne de recherche d'informations dans un journal ou une page web, dans laquelle il faut juger si un texte est sémantiquement relié ou non à un but, exprimé par quelques mots. Parce que le temps est souvent une contrainte, les textes ne sont souvent pas entièrement lus avant qu'intervienne la décision. Plus précisément, nous avons analysé les mouvements des yeux dans deux tâches de recherche d'information consistant à lire un paragraphe et à décider rapidement i) s'il est associé à un but donné et ii) s'il est plus associé à un but donné qu'un autre paragraphe traité auparavant. Un modèle est proposé pour chacune de ces situations. Nos simulations sont réalisées au niveau des fixations et des saccades oculaires. En particulier, nous prédisons le moment auquel les participants décident d'abandonner la lecture du paragraphe parce qu'ils ont suffisamment d'information pour prendre leur décision. Les modèles font ces prédictions par rapport aux mots qui sont susceptibles d'être traités avant que le paragraphe soit abandonné. Les jugements d'association sémantiques humains sont reproduits par le calcul des similarités sémantiques entre mots produits par l'analyse de la sémantique latente (LSA, Landauer et al., 2007). Nous avons suivi une approche statistique paramétrique dans la construction de nos modèles. Ils sont basés sur un classifieur bayésien. Nous proposons un seuil linéaire bi-dimensionnel pour rendre compte de la décision d'arrêter de lire un paragraphe, utilisant le Rang de la fixation et i) la similarité sémantique (Cos) entre le paragraphe et le but ainsi que ii) la différence de similarité sémantique (Gap) entre chaque paragraphe et le but. Pour chacun des modèles, les performances montrent que nous sommes capables de reproduire en moyenne le comportement des participants face aux tâches de recherche d'information étudiées durant cette thèse. Cette thèse comprend deux parties principales : 1) la conception et la passation d'expériences psychophysiques pour acquérir des données de mouvements oculaires et 2) le développement et le test de modèles cognitifs computationnels.
APA, Harvard, Vancouver, ISO, and other styles
28

Debèse, Nathalie. "Recalage de la navigation par apprentissage sur les données bathymètriques." Compiègne, 1992. http://www.theses.fr/1992COMPD538.

Full text
Abstract:
L'utilisation d'un sondeur multifaisceaux dans la cartographie des fonds marins souligne l'insuffisance d'une correction de la navigation à l'estime basée uniquement sur l'introduction d'un positionnement par satellite. La fiabilité des cartes bathymétriques nécessite la correction des décalages entre les différentes observations que l'on réalise d'une même zone géographique à chaque passage du navire. L'automatisation de la correction des points navigation s'impose pour réduire le temps passé par les cartographes pour effectuer cette opération, pour obtenir des cartes précises, et enfin pour enrichir les campagnes existantes des données nouvellement acquises. Le problème du recalage se ramène à la recherche d'une isométrie permettant de passer d'une famille de courbes planes à une autre famille dont les paramètres sont estimées à partir de données discrètes, incertaines et entachées d'erreurs. Une modélisation des incertitudes dans un système de voisinage a été introduite dans un test du rapport de vraisemblance pour dégager une classe de transformations admissibles de recalage. Une représentation topographique par un modèle numérique de terrain (facettes triangulaires) permet alors de préciser la correction. Les études de cas proposées montrent que la procédure ainsi élaborée est efficace.
APA, Harvard, Vancouver, ISO, and other styles
29

Ekhteraei, Toussi Mohammad Massoud. "Analyse et reconstitution des décisions thérapeutiques des médecins et des patients à partir des données enregistrées dans les dossiers patient informatisés." Paris 13, 2009. http://www.theses.fr/2009PA132029.

Full text
Abstract:
Cette thèse a trait à l’étude de la décision thérapeutique et de sa conformité aux recommandations contenues dans les guides de bonnes pratiques. Nous proposons trois méthodes pour l’analyse et la reconstitution des décisions des médecins et des patients à partir des données enregistrées dans les dossiers patients. Notre première méthode porte sur l’analyse de la conformité des prescriptions vis-à-vis des recommandations de bonnes pratiques. Cette analyse s’appuie sur une typologie des traitements qui permet de formaliser les prescriptions et les recommandations et de les comparer à trois niveaux de détails : le type de traitement, la classe pharmaco-thérapeutique, et la dose. Notre deuxième méthode porte sur l’extraction des décisions thérapeutiques des médecins à partir des dossiers patients quand les guides de bonnes pratiques ne proposent pas de recommandations. Nous présentons d’abord une méthode de découverte des lacunes de connaissances d’un guide de bonnes pratiques. Ensuite, nous appliquons un algorithme d’apprentissage automatique (C5. 0 de Quinlan) à une base de données des dossiers patients pour extraire de nouvelles règles que nous greffons à l’arbre de décision original du guide. Notre troisième méthode porte sur l’analyse de la conformité des décisions thérapeutiques des patients vis-à-vis des recommandations des médecins concernant l’ajustement des doses d’insuline. Nous présentons cinq indicateurs qui permettent de vérifier le niveau de l’observance des patients : l’accord absolu (AA) et l’accord relatif (RA) montrent une observance acceptable, le désaccord extrême (ED) montre un comportement dangereux, le sur-traitement (OT) et le sous-traitement (UT) montrent respectivement l’administration d’une dose trop forte ou trop faible de médicament
This thesis deals with the study of the agreement between the therapeutic decisions and the recommendations of best practice. We propose three methods for the analysis and the reconstruction of physicians’ and patients’ therapeutic decisions through the information available in patient records. Our first method involves the analysis of the agreement between physicians’ prescriptions and the recommendations of best practice. We present a typology of drug therapy, applicable to chronic disease, allowing to formalize both prescriptions and recommendations and to compare them in three levels of detail: the type of treatment, pharmaco-therapeutic class, and the dose of each medication. Our second method involves the extraction of physicians’ therapeutic decisions through patient records when the guidelines do not offer recommendations. We first present a method for discovering knowledge gaps in clinical practice guidelines. Then we apply a machine learning algorithm (C5. 0 Quinlan) to a database of patient records to extract new rules that we graft to the decision tree of the original guideline. Our third method involves the analysis of compliance of patients’ therapeutic decisions with regard to the physicians’ recommendations concerning insulin dose adjustment. We present five indicators useful for the verification of the level of patient compliance: absolute agreement (AA) and the relative agreement (RA) show an acceptable compliance, extreme disagreement (ED) shows a dangerous behavior, over-treatment (OT) and under-treatment (UT) show that the administered dose was respectively too high or too low
APA, Harvard, Vancouver, ISO, and other styles
30

Lomet, Aurore. "Sélection de modèle pour la classification croisée de données continues." Compiègne, 2012. http://www.theses.fr/2012COMP2041.

Full text
Abstract:
La classification croisée a pour objectif de partitionner simultanément les lignes et les colonnes d'un tableau de données pour révéler la structure en blocs homogènes. Parmi les différentes méthodes proposées, l'une d'entre elles utilise le modèle probabiliste des blocs latents. Pour un même jeu de données, plusieurs classifications croisées qui diffèrent par le nombre de classes par exemple peuvent être proposées. La sélection du nombre de classes devient alors un problème fondamental afin d'obtenir une classification des données pertinente. De plus, l'absence de jeu de données réelles de référence limite l'évaluation objective des méthodes d'apprentissage. De ce fait, l'utilisation des données simulées est particulièrement intéressante. Cependant, leur conception pose plusieurs problèmes : la quantification de la difficulté du problème d'apprentissage qui s'exprime par le risque de Bayes en classification simple est problématique en raison de la double nature de la dimension du tableau. La première contribution de cette thèse réside donc en la définition d'une mesure objective du niveau de difficulté d'un problème de classification croisée afin de proposer un protocole de simulation pour lequel le degré de mélange des classes est contrôlé. Pour ce faire, nous revenons sur la définition des fonctions de coût des règles de Bayes et des risques. Puis, nous décrivons les difficultés liées à l'estimation de ces quantités. A partir de ces dernières, nous définissons un risque de Bayes conditionné par le tableau de données observé comme mesure du niveau de difficulté. Par la suite, nous proposons un protocole de simulation utilisant le modèle de blocs latents pour lequel le niveau de difficulté exprimé par ce risque conditionnel est contrôlé. Pour le choix du nombre de classes, nous proposons dans cette thèse une nouvelle procédure utilisant des critères de sélection de modelé reposant sur des justifications théoriques et ne nécessitant pas de calculs supplémentaires coûteux après l'estimation du modèle de blocs latents. Puisque nous employons un modèle probabiliste, nous adaptons le critère ICL qui a été initialement défini pour le choix du nombre de composants des modèles de mélange. Nous développons trois versions qui diffèrent suivant les hypothèses et les distributions a priori posées. Nous proposons également un critère dérivé BIC. Les résultats obtenus du critère ICL exact informatif et des deux critères asymptotiques ICLBIC et BIC sur des jeux de données simulées et réelles montrent que ceux-ci sont performants et robustes pour des tableaux suffisamment grands quant à la sélection du nombre de classes et du type de modèle.
APA, Harvard, Vancouver, ISO, and other styles
31

Pastor, Josette. "Ronsart : représentation objet du raisonnement dans un système d'aide à la surveillance de processus." Toulouse 3, 1990. http://www.theses.fr/1990TOU30246.

Full text
Abstract:
L'operateur exercant une surveillance de processus utilise deux types de raisonnements, qui peuvent etre soit dependants de la tache dans les situations de routine, soit dependants du domaine dans de nouvelles situations. Ronsart est un generateur de systemes d'aide a la surveillance de processus, qui modelise le raisonnement independant du domaine. Il est complementaire des systemes a base de modeles profonds, qui prennent en compte la connaissance specifique au domaine. Dans ronsart, les concepts utilises par l'operateur sont structures en classes d'objets organisees autour de la notion centrale d'anomalie. Ils constituent la representation statique de la connaissance. A travers son organisation causale, la classe des anomalies vehicule le raisonnement diagnostique et pronostique. Les instances datees des concepts statiques constituent la representation dynamique. L'evolution temporelle d'un processus est percue par les trajectoires des instances. Une situation instantanee est representee par l'ensemble de toutes les instances partageant la meme date. La semantique des concepts et du raisonnement est ecrite en genesia-ii, langage d'ordre un etendu concu par e. D. F. Concepts et instances sont stockes dans une base de donnees relationnelle, geree par le s. G. B. D. Oracle. Une interface de traduction automatique entre les modeles objet et relationnel est construite. La premiere application pratique de ronsart est sage, systeme de surveillance de la grossesse
APA, Harvard, Vancouver, ISO, and other styles
32

Ouedraogo, Boukary. "Système de surveillance épidémiologique au Burkina Faso : contribution à la mise en place d'un dispositif informatisé de remontée des données du paludisme et analyses géo-épidémiologiques pour la prise de décision." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0675/document.

Full text
Abstract:
Notre travail a montré qu’un système de surveillance épidémiologique (SEpi), comme ceux basés sur la téléphonie mobile, doit être obligatoirement intégré au système national. Souvent les acteurs extérieurs imposent et décident de la mise en place d’un système d'information (SI), sans réelle concertation avec les utilisateurs et responsables, sans intégration au système national, sans réflexion à long terme, sur le fonctionnement, les coûts, les développements. Les utilisateurs et les responsables doivent s’approprier le dispositif, tant dans sa mise en place que dans le maintien, le développement et l’analyse. L’exemple de la variation spatio-temporelle du paludisme a montré que des facteurs non sanitaires, en l’occurrence environnementaux, impactent sur la survenue d’épidémies. Il est donc nécessaire, pour avoir une vision de la situation épidémiologique dans un contexte de décision nationale, d’intégrer ces facteurs pour optimiser l’analyse et la SEpi. Il est indispensable, pour une analyse utile d’une situation épidémiologique, d’avoir, en temps réel, des échelles spatiales et temporelles très fines. Le succès du développement d’un SI réside principalement dans l’implication des autorités à chaque niveau hiérarchique. Sans politique de SIS décidée au plus haut niveau, structurée et activement coordonnée, toute mise en œuvre d’un nouvel outil (tablette, téléphone etc.) est vouée à l’échec, quel que soit le budget alloué.Il faut sortir de la tradition de bilan/rapport annuels qui n’analyse que des informations agrégées passées, déconnectées du SI national, pour entrer dans la SEpi 2.0 en temps réel, réactive, intégrée dans un SIS structuré et coordonnée nationalement
Our work has shown that an epidemiological surveillance system (SEpi), such as those based on mobile phones, must be integrated into the national system. Often external actors impose and decide on the implementation of an information system (IS), without real consultation with users and managers, without integration into the national system, without long-term reflection on the functioning, costs and developments. Users and managers must take ownership of the system, both in its implementation and in its maintenance, development and analysis. The example of the spatial and temporal variation of malaria has shown that non-health factors, in this case environmental factors, have an impact on the occurrence of epidemics. It is therefore necessary, in order to have a vision of the epidemiological situation in a national decision-making context, to integrate these factors to optimize the analysis and the SEpi. It is essential, for a useful analysis of an epidemiological situation, to have, in real time, very fine spatial and temporal scales. The success of IS development depends mainly on the involvement of authorities at each hierarchical level. Without an SIS policy decided at the highest level, structured and actively coordinated, any implementation of a new tool (tablet, mobile phone, etc.) is doomed to failure, regardless of the budget allocated.It is necessary to move away from the tradition of annual review/reporting, which only analyses past aggregated information, disconnected from the national IS, to enter SEpi 2.0 in real time, reactive, integrated into a structured and nationally coordinated SIS
APA, Harvard, Vancouver, ISO, and other styles
33

Romero, Aquino Nelson Marcelo. "A smart assessment of business processes for enterprises decision support." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0184.

Full text
Abstract:
Les défis auxquels les entreprises sont confrontées au quotidien, tels que la conformité réglementaire, l'adoption de nouvelles technologies ou l'optimisation des coûts, les incitent à mettre en œuvre des initiatives d'amélioration. Comme première étape vers la mise en œuvre de ces initiatives, il est nécessaire d'effectuer des évaluations pour comprendre l'état actuel de l'entreprise en tenant compte de différents aspects tels que la maturité, l'agilité, les performances ou la préparation à la numérisation. Cependant, les évaluations sont coûteuses en termes de temps et de ressources. Spécifiquement lors de l'examen des évaluations qualitatives, telles que les évaluations de maturité ou de capacité, car elles nécessitent souvent la participation d'un ou plusieurs évaluateurs humains pour examiner les documents, effectuer des entretiens, etc. Par conséquent, des moyens d'automatiser ou de semi-automatiser le processus d'évaluation sont essentiels, car ils pourraient réduire l'effort pour l'exécuter. En ce sens, l'objectif de cette thèse est de proposer le Smart Assessment Framework (SAF), un cadre conceptuel fondé sur les concepts de systèmes intelligents capables de fournir un support efficace pour le développement de systèmes permettant d'effectuer des évaluations automatisées dans les entreprises. Le cadre est instancié pour concevoir et développer des systèmes capables d'effectuer une évaluation de la capacité des processus métier à l'aide de deux types de preuves d'évaluation : les données textuelles et les modèles d'entreprise. Pour traiter le premier, une approche hybride basée sur le Deep Learning et l'Ontologie a été conçue; pour traiter ce dernier, une approche basée sur un réseau de neurones graphiques a été définie
The challenges faced by enterprises on a daily basis such as regulatory compliance, novel technology adoption, or cost optimisation, foster them to implement improvement initiatives. As a first step towards the implementation of those initiatives, there is a need to perform assessments to understand the As-Is state of the enterprise considering different aspects such as maturity, agility, performance, or readiness towards digitisation. However, assessments are expensive in terms of time and resources. Specifically when considering qualitative appraisals, such as maturity or capability assessments, since they often demand the participation of one or more human assessors to review documents, perform interviews, etc. Therefore, means to automate or semi-automate the assessment process are essential, since they could reduce the effort to perform it. In this sense, the objective of this thesis is to propose the Smart Assessment Framework (SAF), a conceptual framework grounded on the concepts of smart systems able to provide efficient support for the development of systems that allow to perform automated assessments in enterprises. The capabilities of smart systems that are considered as basis for the definition of the SAF are extracted from the scientific literature through a systematic literature review and the application of natural language processing techniques. The SAF is instantiated to design and develop systems able to perform business process capability assessment using two types of assessment evidences: text data and enterprise models. To treat the text data, a hybrid Long Short-Term Memory Network and Ontology-based system is defined. To treat enterprise models, a Graph Neural Network-based approach his devised
APA, Harvard, Vancouver, ISO, and other styles
34

Brahimi, Lahcene. "Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0009/document.

Full text
Abstract:
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes
Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection
APA, Harvard, Vancouver, ISO, and other styles
35

Chakhchoukh, Mehdi. "Visualization to Support Multi-Criteria Decision-making in Agronomy." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG085.

Full text
Abstract:
L'augmentation de la complexité des systèmes agricoles nécessite des outils d'aide à la prise de décision sophistiqués capables de gérer plusieurs critères et d'accommoder des tâches complexes d'analyse des compromis. Cette thèse développe des visualisations qui facilitent les processus de prise de décision en agronomie, avec trois contributions principales : (i) comprendre comment la provenance peut soutenir l'analyse des compromis, (ii) articuler des besoins de conception et de visualisation pour soutenir la comparaison de groupes dans des scénarios de compromis, et enfin (iii) comprendre comment différentes visualisations peuvent affecter les comparaisons et la prise de décision dans l'analyse des compromis. Après un chapitre d'introduction et un chapitre sur les travaux connexes, la thèse détaille ces trois contributions.Le 3ème chapitre examine comment les mécanismes de provenance analytique peuvent aider les experts à se souvenir et à suivre des analyses de compromis complexes. Nous avons développé VisProm, un outil web intégrant des vues de provenance dans les visualisations pour aider les experts à suivre les compromis et leurs objectifs lors de l'exploration de résultats de simulation complexes. Des sessions d'observation avec des experts ont révélé huit tâches clés soutenues par nos conceptions, mettant en lumière de nouvelles opportunités pour l'analyse des compromis guidée par la provenance, telles que le suivi de la couverture de l'espace de compromis et l'exploration de scénarios alternatifs. Un résultat clé a été la nécessité de considérer les objectifs conflictuels et de comparer comment différentes solutions ou espaces de compromis se comportent face à ces objectifs.Le 4ème chapitre explore les besoins et les défis auxquels sont confrontés les experts lorsqu'ils comparent des espaces de compromis (souvent exprimés sous forme de groupes de points de données, par exemple, des groupes de résultats de simulation) qui optimisent différents objectifs. À travers des ateliers avec des experts du domaine et des concepteurs de visualisations, nous avons identifié des besoins de conception et de visualisation pour soutenir la comparaison de groupes dans des scénarios de compromis. Ce chapitre met les bases pour développer des techniques de visualisation capables de comparer des groupes représentant différents compromis en fonction des objectifs qu'ils optimisent. Cela a mené à la mise en œuvre d'un prototype de visualisation qui encode visuellement diverses métriques de compromis, en communiquant les priorités des experts, la notion de solutions idéales, et la distance des groupes de solutions par rapport à ces idéaux.Le 5ème chapitre se concentre sur l'évaluation des techniques de visualisation pour comparer des groupes de points (solutions) lorsqu'ils représentent différents compromis. S'inspirant des besoins identifiés dans le chapitre précédent, nous avons sélectionné trois techniques prometteuses de visualisation pour les étudier. Ces techniques encodent visuellement les priorités des compromis et les solutions idéales de différentes manières, soit en couplant, soit en découplant les métriques de compromis. Nous avons mené une étude utilisateur pour comprendre comment ces visualisations influencent les décisions de comparaison et la qualité des explications de ces décisions. Les résultats montrent que les techniques qui séparent visuellement l'encodage des priorités et des solutions idéales entraînent une charge cognitive plus élevée et une confiance auto-évaluée plus faible, mais soutiennent des stratégies de décision plus variées par rapport aux visualisations intégrées. Elles étaient cependant toujours préférées par rapport à la visualisation de référence.La thèse conclut avec des discussions et des perspectives sur les directions futures issues de ce travail
The increasing complexity of agricultural systems necessitates sophisticated decision-making tools that can handle multiple criteria and accommodate complex trade-off analysis tasks. This thesis develops visualizations that facilitate decision-making processes in agronomy. This work has three main contributions: (i) understanding how provenance can support trade-off analysis, (ii) articulating high-level design and visualization needs to support group comparison in trade-off scenarios, and (iii) understanding how different visualizations can affect comparisons and decision-making in trade-off analysis. After an introductory chapter and a chapter on related work, the thesis details these three main contributions.The 3rd chapter of the thesis investigates how analytic provenance mechanisms can assist experts in recalling and tracking complex trade-off analyses. We developed VisProm, a web-based system integrating in-visualization provenance views to help experts track trade-offs and their objectives when exploring complex simulation results. Observation sessions with groups of experts revealed eight key tasks supported by our designs, highlighting new opportunities for provenance-driven trade-off analysis, such as monitoring trade-off space coverage and tracking alternative scenarios. One key outcome was the need to consider conflicting objectives and compare how different solutions or trade-off spaces fare under these objectives.Building on this, the 4th chapter explores the needs and challenges experts face when comparing trade-off spaces (that are often expressed as groups of data points, e.g., groups of simulation results) that optimize different objectives. Through workshops with domain experts and visualization designers, we identified high-level design and visualization needs to support group comparison in trade-off scenarios. This chapter lays the groundwork for developing effective visualization techniques for comparing groups that represent different trade-offs in terms of what objectives they optimize. They led to the implementation of a visualization prototype that visually encodes a variety of trade-off metrics. These encode and visually communicate experts' priorities in terms of objectives, the notion of ideal solutions, and how far current groups of solutions are from those ideals.The 5th chapter focuses on the evaluation of visualization techniques for comparing groups of points (solutions) when they represent different trade-offs. Motivated by the visualization needs and design requirements of the previous chapter, we selected three promising tabular-based visualization techniques to study. These techniques encode trade-off priorities and ideal solutions in different ways: coupling or decoupling the trade-off metrics and presenting them visually. We conducted a user study to understand how visualizations affected comparison decisions and quality of decision explanations. The findings from this study highlight that techniques that visually separate the encoding of priorities and ideal solutions lead to higher mental load and lower self-reported trust but may support more varied decision strategies than integrated visualizations. But they were always preferred over a baseline visualization.We conclude the thesis with a list of discussions and perspectives for future directions stemming from the results of this work
APA, Harvard, Vancouver, ISO, and other styles
36

Ben, Jeddou Roukaya. "Football Selection Optimization through the Integration of Management Theories, AI and Multi-criteria Decision Making." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCG009.

Full text
Abstract:
Le travail de recherche décrit dans cette thèse s'inscrit dans le contexte de la gestion d'un club de football professionnel, où l'établissement d'un équilibre humain et financier est essentiel pour assurer la pérennité des organisations sportives. Dans le management du football, les méthodes traditionnelles de sélection des joueurs ont historiquement guidé le processus de prise de décision au niveau des clubs. Ce processus de décision stratégique, souvent subjectif et incertain, peut avoir un impact significatif sur les performances financières, économiques et sportives de l’équipe.Alors que le football évolue vers un sport plus axé sur les données, il est de plus en plus reconnu que les méthodes traditionnelles doivent être complétées par des méthodes scientifiques basées sur l'intelligence artificielle et le recours aux méthodes de prise de décision multi-critères pour optimiser la sélection des joueurs et améliorer les performances tant sportives que financières. Il devient essentiel de rechercher un équilibre optimal entre le rendement sportif et la performance financière afin d'optimiser les résultats d'une entité spécifique: le club de football.À cet égard, l'objectif principal de cette thèse est de proposer un modèle qui combine les techniques de machine learning et les méthodes d’analyse multicritères pour améliorer l'efficacité et l'objectivité du processus de sélection des joueurs de football, tout en tenant compte des considérations financières et managériales. Notre première contribution est de prioriser les critères techniques, physiques, tactiques et comportementaux des joueurs en utilisant les algorithmes Random Forest, Entropy et CRITIC. La seconde contribution est de classer les joueurs selon leurs performances en se basant sur la méthode TOPSIS.Afin de valider ces contributions, nous avons créé un système d'aide à la décision permettant au décideur sportif de suggérer des joueurs en fonction de leurs performances. Notre modèle ne vise pas à remplacer les entraîneurs, mais plutôt à intégrer des évaluations subjectives et objectives pour permettre une compréhension approfondie des facteurs de performance sportive et managériale, améliorant ainsi la précision de la sélection des joueurs. Alors que le football s'oriente vers des approches plus axées sur les données, la combinaison de l'IA et du MCDM peut optimiser davantage les processus de sélection des joueurs, en tirant parti des avantages de l'analyse de données objective et de l'expertise subjective.Les résultats obtenus démontrent l'efficacité de notre approche dans l'amélioration des performances des équipes de football, particulièrement lorsqu'elle est soutenue et assistée par l'intelligence émotionnelle, à savoir la capacité du manager à détecter l'état substantiel du joueur
The research outlined in this thesis falls within the context of professional football club management, where establishing a balance between human and financial aspects is essential for long-term viability of sports organizations. In football management, the traditional methods of player selection have historically guided decision-making processes within clubs. This strategic decision-making process, which is often subjective and uncertain, can have a significant impact on the club's financial, economic and sporting situation.As football is increasingly becoming a data-driven sport, there is a growing recognition that traditional approaches need to be complemented by scientific methods based on artificial intelligenceomenclature{AI}{Artificial Intelligence} and multi-criteria decision makingomenclature{MCDM}{Multi-Criteria Decision Making} approaches to optimize player selection and improve both sporting and financial performance. It is becoming increasingly important to find an optimal balance between sporting success and financial performance to optimize the results of a specific entity: the football club.In this respect, the main purpose of this thesis is to propose a model that combines machine learning techniques with multi-criteria analysis methods to improve the efficiency and objectivity of the football player selection process, while taking into account financial and managerial considerations. Our first contribution is to prioritize the physical, technical, tactical, and behavioral criteria of players using Random Forest, Entropy, and CRITIComenclature{CRITIC}{CRiteria Importance Through Intercriteria Correlation}algorithms. The second contribution is to rank players based on their performance using the TOPSIS method.To validate these contributions, we designed a decision support system that assists the sports decision maker by proposing players in order of performance. Our model does not aim to replace coaches but rather to integrate subjective and objective evaluations to provide a thorough understanding of the factors influencing sporting and managerial performance, thereby improving the accuracy of player selection. As football moves towards more data-oriented approaches, the combination of AI and MCDM can further optimize player selection processes by leveraging the benefits of objective data analysis and subjective expertise.The results obtained show the effectiveness of our approach in improving the performance of football teams, especially when supported and promoted by emotional intelligence, which refers to the manager's ability to recognize the substantial state of the players
APA, Harvard, Vancouver, ISO, and other styles
37

Devillers, Rodolphe. "Conception d'un système multidimensionnel d'information sur la qualité des données géospatiales." Phd thesis, Université de Marne la Vallée, 2004. http://tel.archives-ouvertes.fr/tel-00008930.

Full text
Abstract:
L'information géographique est maintenant un produit de masse fréquemment manipulé par des utilisateurs non-experts en géomatique qui ont peu ou pas de connaissances de la qualité des données qu'ils utilisent. Ce contexte accroît significativement les risques de mauvaise utilisation des données et ainsi les risques de conséquence néfaste résultant de ces mauvaises utilisations. Cette thèse vise à fournir à des utilisateurs experts ou des experts en qualité une approche leur permettant d'évaluer la qualité des données et ainsi être à même de conseiller des utilisateurs non-experts dans leur utilisation des données. Cette approche se base sur une structuration des données de qualité dans une base de données multidimensionnelle et une communication dynamique et contextuelle utilisant des indicateurs de qualité affichés dans un système SOLAP (Spatial On-Line Analytical Processing) combiné à un système d'information géographique.
APA, Harvard, Vancouver, ISO, and other styles
38

Chuchuk, Olga. "Optimisation de l'accès aux données au CERN et dans la Grille de calcul mondiale pour le LHC (WLCG)." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4005.

Full text
Abstract:
La Grille de calcul mondiale pour le LHC (WLCG) offre une infrastructure informatique distribuée considérable dédiée à la communauté scientifique impliquée dans le Grand Collisionneur de Hadrons (LHC) du CERN. Avec un stockage total d'environ un exaoctet, le WLCG répond aux besoins de traitement et de stockage des données de milliers de scientifiques internationaux. À mesure que la phase du High-Luminosity LHC (HL-LHC) approche, le volume de données à analyser augmentera considérablement, dépassant les gains attendus grâce à l'avancement de la technologie de stockage. Par conséquent, de nouvelles approches pour un accès et une gestion efficaces des données, telles que les caches, deviennent essentielles. Cette thèse se plonge dans une exploration exhaustive de l'accès au stockage au sein du WLCG, dans le but d'améliorer le débit scientifique global tout en limitant les coûts. Au cœur de cette recherche se trouve l'analyse des journaux d'accès aux fichiers réels provenant du système de surveillance du WLCG, mettant en évidence les véritables schémas d'utilisation.Dans un contexte scientifique, la mise en cache a des implications profondes. Contrairement à des applications plus commerciales telles que la diffusion de vidéos, les caches de données scientifiques traitent des tailles de fichiers variables, allant de quelques octets à plusieurs téraoctets. De plus, les associations logiques inhérentes entre les fichiers influencent considérablement les schémas d'accès des utilisateurs. La recherche traditionnelle sur la mise en cache s'est principalement concentrée sur des tailles de fichiers uniformes et des modèles de référence indépendants. Au contraire, les charges de travail scientifiques rencontrent des variations de taille de fichier, et les interconnexions logiques entre les fichiers influencent de manière significative les schémas d'accès des utilisateurs.Mes investigations montrent comment l'organisation hiérarchique des données du LHC, en particulier leur compartimentation en "datasets", influence les schémas de demande. Reconnaissant cette opportunité, j'introduis des algorithmes de mise en cache innovants qui mettent l'accent sur la connaissance spécifique des datasets et je compare leur efficacité avec les stratégies traditionnelles axées sur les fichiers. De plus, mes découvertes mettent en évidence le phénomène des "hits retardés" déclenché par une connectivité limitée entre les sites de calcul et de stockage, mettant en lumière ses répercussions potentielles sur l'efficacité de la mise en cache.Reconnaissant le défi de longue date que représente la prédiction de la Popularité des Données dans la communauté de la Physique des Hautes Énergies (PHE), en particulier avec les énigmes de stockage à l'approche de l'ère du HL-LHC, ma recherche intègre des outils de Machine Learning (ML). Plus précisément, j'utilise l'algorithme Random Forest, connu pour sa pertinence dans le traitement des Big Data. En utilisant le ML pour prédire les futurs schémas de réutilisation des fichiers, je présente une méthode en deux étapes pour informer les politiques d'éviction de cache. Cette stratégie combine la puissance de l'analyse prédictive et des algorithmes établis d'éviction de cache, créant ainsi un système de mise en cache plus résilient pour le WLCG.En conclusion, cette recherche souligne l'importance de services de stockage robustes, suggérant une orientation vers des caches sans état pour les petits sites afin d'alléger les exigences complexes de gestion de stockage et d'ouvrir la voie à un niveau supplémentaire dans la hiérarchie de stockage. À travers cette thèse, je vise à naviguer à travers les défis et les complexités du stockage et de la récupération de données, élaborant des méthodes plus efficaces qui résonnent avec les besoins évolutifs du WLCG et de sa communauté mondiale
The Worldwide LHC Computing Grid (WLCG) offers an extensive distributed computing infrastructure dedicated to the scientific community involved with CERN's Large Hadron Collider (LHC). With storage that totals roughly an exabyte, the WLCG addresses the data processing and storage requirements of thousands of international scientists. As the High-Luminosity LHC phase approaches, the volume of data to be analysed will increase steeply, outpacing the expected gain through the advancement of storage technology. Therefore, new approaches to effective data access and management, such as caches, become essential. This thesis delves into a comprehensive exploration of storage access within the WLCG, aiming to enhance the aggregate science throughput while limiting the cost. Central to this research is the analysis of real file access logs sourced from the WLCG monitoring system, highlighting genuine usage patterns.In a scientific setting, caching has profound implications. Unlike more commercial applications such as video streaming, scientific data caches deal with varying file sizes—from a mere few bytes to multiple terabytes. Moreover, the inherent logical associations between files considerably influence user access patterns. Traditional caching research has predominantly revolved around uniform file sizes and independent reference models. Contrarily, scientific workloads encounter variances in file sizes, and logical file interconnections significantly influence user access patterns.My investigations show how LHC's hierarchical data organization, particularly its compartmentalization into datasets, impacts request patterns. Recognizing the opportunity, I introduce innovative caching policies that emphasize dataset-specific knowledge, and compare their effectiveness with traditional file-centric strategies. Furthermore, my findings underscore the "delayed hits" phenomenon triggered by limited connectivity between computing and storage locales, shedding light on its potential repercussions for caching efficiency.Acknowledging the long-standing challenge of predicting Data Popularity in the High Energy Physics (HEP) community, especially with the upcoming HL-LHC era's storage conundrums, my research integrates Machine Learning (ML) tools. Specifically, I employ the Random Forest algorithm, known for its suitability with Big Data. By harnessing ML to predict future file reuse patterns, I present a dual-stage method to inform cache eviction policies. This strategy combines the power of predictive analytics and established cache eviction algorithms, thereby devising a more resilient caching system for the WLCG. In conclusion, this research underscores the significance of robust storage services, suggesting a direction towards stateless caches for smaller sites to alleviate complex storage management requirements and open the path to an additional level in the storage hierarchy. Through this thesis, I aim to navigate the challenges and complexities of data storage and retrieval, crafting more efficient methods that resonate with the evolving needs of the WLCG and its global community
APA, Harvard, Vancouver, ISO, and other styles
39

Es, soufi Widad. "Modélisation et fouille des processus en vue d'assister la prise de décisions dans le contexte de la conception et la supervision des systèmes." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0067/document.

Full text
Abstract:
L'industrie actuelle est en plein développement suite à la mise en œuvre du concept de l'industrie 4.0 visant à rendre l'usine une entité intelligente, en combinant les processus et pratiques industriels avec les technologies de l'information et de communication récentes comme les systèmes cyber-physiques et l'internet des objets connectés (IoT), entre autres. Ce développement industriel, ainsi que le besoin d'innover pour atteindre et maintenir la compétitivité favorisent une augmentation phénoménale du volume de données (connue sous le nom de Big Data), rendant ainsi (i) les processus de conception et de supervision des systèmes de plus en plus chaotiques, (ii) les données au sein des organisations de plus en plus difficiles à exploiter et (iii) les ingénieurs de plus en plus perdus lors de la prise de décision. En effet, plusieurs problèmes sont identifiés dans les milieux industriels et qui peuvent être classés en trois catégories : (i) difficultés lors de la recherche, la visualisation et l'échange de l'information, (ii) difficultés lors de la prise de décision et (iii) difficultés lors de la gestion des changements de contexte. A travers ce travail, nous proposons un système d'aide à la décision intelligent et modulaire, dont chacun des quatre modules résout un des problèmes identifiés. Les modules de modélisation et de traçabilité des processus permettent de modéliser les processus et de capturer la façon comment ils sont exécutés. Le module d'aide à la décision permet de proposer le pattern le plus adapté au contexte de la décision ainsi que les paramètres de ses activités les plus significatifs. Le module de gestion des changements contextuels permet de continuellement mettre à jour le module de prise de décision, lui permettant ainsi de tenir compte de l'aspect dynamique du contexte. Le système proposé est entièrement vérifié et à moitié validé dans le contexte du projet Gontrand, visant la supervision intelligente et en temps réel des réseaux de gaz favorisant l'injection du gaz vert. Pour qu'il soit entièrement validé, les performances du système doivent être analysées après l'intégration et l'exploitation de ce dernier dans un milieu industriel réel
Data sets are growing rapidly because of two things. First, the fourth industrial revolution that aims to transform factories into smart entities in which cyber physical systems monitor the physical processes of the factory. Second, the need to innovate in order to achieve and maintain competitiveness. Due to this huge volume of data (Big Data), (i) design and supervision processes are becoming chaotic, (ii) data within organizations is increasingly becoming difficult to exploit and (iii) engineers are increasingly lost when making decisions. Indeed, several issues are identified in industry: (i) when researching, visualizing and exchanging information, (ii) when making decisions and (iii) when managing contextual changes. Through this research work, we propose an Intelligent and modular Decision Support System (IDSS), where each of the four modules solves one of the identified issues. Process modelling and traceability modules aim to model processes and capture how they are actualy executed. The decision support module proposes the process patterns that best fit the decision context, as well as their most significant activity parameters. The contextual change management module continuously updates the decision-making module, in order to handle the dynamic aspect of the decision context. The proposed system is fully verified and half-validated in the context of the Gontrand project, aiming at intelligent and real-time supervision of gas networks favoring the injection of green gas. In order to be fully validated, the performance of the system must be analyzed after integrating and exploitating it in a real industrial environment
APA, Harvard, Vancouver, ISO, and other styles
40

Dantan, Jérôme. "Une approche systémique unifiée pour l’optimisation durable des systèmes socio-environnementaux : ingénierie des systèmes de décision en univers incertain." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1045/document.

Full text
Abstract:
De nos jours, la durabilité des activités humaines devient une préoccupation majeure dans le monde entier. Il s’agit d’évaluer ces activités non seulement en matière d’efficacité et de productivité, mais aussi en ce qui concerne leurs durabilités économique, sociale, environnementale, etc. Pour cela, les experts de ces différents domaines doivent travailler en collaboration. Dans ce contexte, les sociétés humaines sont confrontées à plusieurs défis majeurs qui sont les suivants : (1) traiter de grandes quantités d’informations (« big data »), (2) évoluer dans un monde réel dynamique et imparfait, (3) prévoir et évaluer les états futurs de ses activités.Les recherches que nous avons menées dans cette thèse contribuent plus particulièrement au domaine de l’ingénierie des systèmes de décision en univers incertain. Nous prenons comme objet d'étude général le domaine des systèmes socio-environnementaux, et plus particulièrement le domaine pluridisciplinaire de l’agriculture. Nous proposons une approche systémique pour l’optimisation durable des systèmes socio-environnementaux : (1) la méta-modélisation des systèmes socio-environnementaux, (2) la représentation générique de l’imperfection des informations qui circulent dans ces systèmes, associée à un modèle de décision en contexte incertain et enfin (3) la simulation et l’évaluation de ces systèmes en environnement dynamique en vue de prises de décisions par des experts, que nous avons illustrée par un modèle d’architecture orientée services ainsi que des études de cas appliquées au domaine de l’agriculture
Nowadays, the sustainability of human activities is a major worldwide concern. The challenge is to evaluate such activities not only in terms of efficiency and productivity, but also in terms of their economic, social, environmental, etc. durability. For this, the experts of these areas need to work collaboratively. In this context, human societies are facing several major challenges such as: (1) process a large amount of information whose volume increases exponentially (“big data”), (2) live in a both dynamic and imperfect real world, (3) predict and assess future states of its activities.The researches we have conducted in this thesis contribute in particular to the domain of decision systems engineering under uncertainty. We have chosen the field of general socio-environmental systems as subject of study, particularly the multidisciplinary field of agriculture. We propose a systemic approach for the sustainable optimization of socio-environmental systems: (1) the meta-modeling of socio-environmental systems, (2) the generic representation of data imperfection flowing in such systems, associated to a decision model in uncertain environment and finally (3) the simulation and the assessment of such systems in dynamic environment for the purpose of decision making by experts which we have illustrated by both a service-oriented architecture model and case studies applied to the agriculture domain
APA, Harvard, Vancouver, ISO, and other styles
41

Jaffré, Marc-Olivier. "Connaissance et optimisation de la prise en charge des patients : la science des réseaux appliquée aux parcours de soins." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2445/document.

Full text
Abstract:
En France, la nécessaire rationalisation des moyens alloués aux hôpitaux a abouti à une concentration des ressources et une augmentation de la complexité des plateaux techniques. Leur pilotage et leur répartition territoriale s’avèrent d’autant plus difficile, soulevant ainsi la problématique de l’optimisation des systèmes de soins. L’utilisation des données massives produites pas ces systèmes pourrait constituer une nouvelle approche en matière d’analyse et d’aide à la décision. Méthode : A partir d’une réflexion sur la notion de performance, différentes approches d’optimisation préexistantes sont d’abord mis en évidence. Le bloc opératoire a été choisi en tant que terrain expérimental. Suit une analyse sur une fusion d’établissements en tant qu’exemple d’une approche d’optimisation par massification.Ces deux étapes permettent de défendre une approche alternative qui associe l’usage de données massives, la science des réseaux et la visualisation des données sous forme cartographique. Deux sets de séjours en chirurgie orthopédique sur la région ex-Midi-Pyrénées sont utilisés. L’enchainement des séjours de soins est considéré en tant en réseau de données. L’ensemble est projeté dans un environnement visuel développé en JavaScript et permettant une fouille dynamique du graphe. Résultats : La possibilité de visualiser des parcours de santé sous forme de graphes NŒUDS-LIENS est démontrée. Les graphes apportent une perception supplémentaire sur les enchainements de séjours et les redondances des parcours. Le caractère dynamique des graphes permet en outre leur fouille. L’approche visuelle subjective est complétée par une série de mesures objectives issues de la science des réseaux. Les plateaux techniques de soins produisent des données massives utiles à leur analyse et potentiellement à leur optimisation. La visualisation graphique de ces données associées à un cadre d’analyse tel que la science des réseaux donne des premiers indicateurs positifs avec notamment la mise en évidence de motifs redondants. La poursuite d’expérimentations à plus large échelle est requise pour valider, renforcer et diffuser ces observations et cette méthode
In France, the streamlining of means assigned hospitals result in concentration of resources ana growing complexily of heallhcare facilities. Piloting and planning (them turn out to be all the more difficult, thus leading of optimjzation problems. The use of massive data produced by these systems in association with network science an alternative approach for analyzing and improving decision-making support jn healthcare. Method : Various preexisting optimisation are first highblighted based on observations in operating theaters chosen as experirnentai sites. An analysis of merger of two hospitlas also follows as an example of an optimization method by massification. These two steps make it possible to defend an alternative approach that combines the use of big data science of networks data visualization techniques. Two sets of patient data in orthopedic surgery in the ex-Midi-Pyrénées region in France are used to create a network of all sequences of care. The whole is displayed in a visual environment developed in JavaScript allowing a dynamic mining of the graph. Results: Visualizing healthcare sequences in the form of nodes and links graphs has been sel out. The graphs provide an additional perception of' the redundancies of he healthcare pathways. The dynamic character of the graphs also allows their direct rnining. The initial visual approach is supplernented by a series of objcctive measures from the science of networks. Conciusion: Healthcare facilities produce massive data valuable for their analysis and optimization. Data visualizalion together with a framework such as network science gives prelimiaary encouraging indicators uncovering redondant healthcare pathway patterns. Furthev experimentations with various and larger sets of data is required to validate and strengthen these observations and methods
APA, Harvard, Vancouver, ISO, and other styles
42

Nallapu, Bhargav Teja. "A closed loop framework of decision-making and learning in primate prefrontal circuits." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0300.

Full text
Abstract:
Cette thèse propose de construire un cadre de travail de modélisation systémique, pour aider à la compréhension de l'organisation des systèmes associant le cortex préfrontal (PFC) et les ganglions de la base (BG) et de leurs interactions fonctionnelles dans les processus de prise de décision et de comportement dirigé par les buts chez les humains. Un environnement de jeu vidéo, Minecraft, est utilisé pour concevoir des expériences. Elles visent à tester le jeu vidéo dans un environnement qui pourrait être plus complexe et réaliste, si besoin. Ce cadre, avec l'expérimentation virtuelle, forme une architecture en boucle fermée pour l'étude de comportements animaux de haut niveau. Le cadre des systèmes neuronaux de ce travail repose sur la dynamique des réseaux entre des sous-systèmes du PFC et des BG. Le PFC joue un rôle crucial dans les fonctions exécutives comme la planification, l'attention, le comportement dirigé par les buts, etc. Les BG sont un groupe de noyaux sous-corticaux qui ont fait l'objet d'études approfondies dans le domaine du contrôle moteur et de la sélection de l'action. Différentes régions dans le PFC et les structures au sein des BG sont organisées anatomiquement, en boucles parallèles et séparées (chacune d'entre elles étant appelée une boucle CBG). Ces boucles peuvent être, à un niveau abstrait, divisées en 3 types : les boucles limbiques, les boucles associatives et les boucles sensorimotrices. Tout d'abord, un cadre global avec ces boucles parallèles a été mis en oeuvre. L'accent est mis sur les boucles limbiques. Les boucles associatives et sensori-motrices sont modélisées de manière algorithmique, à l'aide de la plate-forme d'expérimentation pour le contrôle moteur. Pour ce qui concerne les boucles limbiques, le cortex orbitofrontal (OFC) représente une boucle pour estimer les préférences et la boucle du cortex cingulaire antérieur (ACC) représente les besoins internes. Le substrat correspondant de ces boucles dans les BG est le striatum ventral (VS), beaucoup étudié pour son rôle dans le codage des valeurs. Des scénarios simples sont conçus dans l'environnement virtuel en utilisant l'agent, certains objets et des récompenses appétitives dans l'environnement. Les boucles limbiques ont été implémentées selon des modèles existants de prise de décision dans les BG. Ainsi, le cadre théorique et la plateforme expérimentale servent de banc d'essai pour ces modèles spécifiques qui doivent s'adapter dans une perspective plus large. Ensuite, nous utilisons ce cadre pour étudier de plus près le rôle de l’OFC dans la prise de décision guidée par la valeur et le comportement dirigé par les buts. Dans le cadre de cette thèse, des observations importantes sur le rôle de l’OFC dans le comportement ont été intégrées en consolidant de nombreuses données expérimentales. [...]
This thesis attempts to build a computational systems-level framework that would help to develop an understanding of the organization of the prefrontal cortex (PFC) and the basal ganglia (BG) systems and their functional interactions in the process of decision-making and goal-directed behaviour in humans. A videogame environment, Minecraft is used to design experiments to test the framework in an environment that could be more complex and realistic, if necessary. The framework, along with virtual experimentation forms a closed-loop architecture for studying the high-level animal behavior.The neural systems framework in this work rests on the network dynamics between the subsystems of PFC and BG. PFC is believed to play a crucial role, in executive functions like planning, attention, goal-directed behavior, etc. BG are a group of sub-cortical nuclei that have been extensively studied in the field of motor control and action selection.Different regions in the PFC and structures within BG are anatomically organized, in parallel and segregated loops (each of them referred as a CBG loop). These loops can be, on a high level, divided into 3 kinds : limbic loops, associative loops and sensori-motor loops.First, a comprehensive framework with the above mentioned parallel loops is implemented. The emphasis rests on the limbic loops. Therefore the associative and sensori-motor loops are modeled algorithmically, taking help of the experimentation platform for motor control. As for the limbic loops, the orbitofrontal cortex (OFC) is the part of a loop for preferences and the anterior cingulate cortex (ACC), for internal needs. These loops are formed through their limbic counterpart in BG, ventral striatum (VS). VS has been widely studied and reported to be encoding various substrates of value, forming an integral part of value-based decision making. Simplistic scenarios are designed in the virtual environment using the agent and some objects and appetitive rewards in the environment. The limbic loops have been implemented according to existing computational models of decision making in the BG. Thus the framework and the experimental platform stand as a testbed to computational models of specific processes that have to fit in a bigger picture. Next, we use this framework to study more closely, the role of OFC in value-guided decision making and goal-directed behavior. As part of this thesis, several outstanding observations about the role of OFC in behavior have been summarized by consolidating numerous experimental evidences and reviews.Lastly, to explain the findings of different roles of lateral and medial regions of OFC, existing computational architecture of CBG loops, pavlovian learning in amygdala and multiple evidences of amygdala-OFC-VS interactions are put together into a single model. The learning rules of reinforcement have been adapted to accommodate the appropriate credit assignment (correct outcome to correct chosen stimulus) and the value difference of the choice options. As a result, several findings from animal experiments studying the separable roles, were replicated. Difference in choice impairments depending on the value difference between the best and the second best option is one of them. Dissociable roles in Pavlovian Instrumental Transfer were also observed.The investigations into the observed evidences around OFC offer great insight into understanding the very process of decision-making, value computation in general. By venturing into a realm of bio-inspired adaptive learning in an embodied virtual agent, describing the principles of motivation, goal-selection and self-evaluation, it is highlighted that the field of reinforcement learning and artificial intelligence has a lot to gain from studying the role of prefrontal systems in decision-making
APA, Harvard, Vancouver, ISO, and other styles
43

Sene, Serigne Kosso. "Du modèle à l’aide à la décision par la modélisation : application à l’irrigation déficitaire des végétaux en ville, contexte France et Sénégal." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS579.

Full text
Abstract:
La gestion des espaces urbains est en constante évolution, passant de simples éléments ornementaux à des écosystèmes offrant une gamme étendue de services essentiels à l'homme et à l'environnement. Cependant, ces services ne sont pas sans coût, notamment en termes d'utilisation de l'eau. Dans ce contexte, les modèles agronomiques, bien que nombreux, ne constituent pas des outils complets d'aide à la prise de décision pour les professionnels des espaces verts urbains. Pour répondre à ce défi, une approche intégrant la théorie de la décision et la modélisation des décisions a été développée. Cette démarche vise à combiner les connaissances scientifiques avec les contraintes opérationnelles spécifiques à chaque contexte. L'objectif est de fournir des scénarii précis et adaptés à chaque situation, en prenant en compte des facteurs de contraintes opérationnelles et les attentes des parties prenantes. Un exemple concret de cette approche est le modèle agronomique SARa developpé lors de cette étude, qui évalue l'activité racinaire des arbres en utilisant des mesures tensiométriques. Ce modèle permet de suivre en continu la reprise des arbres après transplantation, offrant ainsi une vision proactive plutôt que réactive de leur survie. Les paramètres SARa sont ensuite intégrés dans un outil d'aide à la prise de décision en matière d'irrigation déficitaire. En plus du modèle agronomique SARa, l'étude a également utilisé le modèle TeadXpert pour fournir des données sur plusieurs paramètres, tels que la réserve utile aux racines (RUR). Ces données ont été essentielles pour alimenter le processus de prise de décision en matière d'irrigation des espaces verts urbains. L'intégration de ces modèles, y compris SARa et TeadXpert, ainsi que l'approche basée sur la théorie de la décision et la modélisation des décisions, constitue une démarche holistique visant à améliorer la gestion des espaces verts urbains tout en optimisant l'utilisation de l'eau. De plus, l'utilisation d'une ontologie a été explorée pour formaliser les connaissances dans le domaine de l'irrigation déficitaire des espaces verts urbains en facilitant la communication entre les acteurs du domaine. Cette étude met en évidence l'importance d'intégrer des modèles de systèmes complexes et des données de contraintes opérationnelles dans le développement d'outils d'aide à la décision pour les professionnels des espaces verts urbains. Cela permet de prendre en compte la réalité opérationnelle tout en exploitant les avancées scientifiques pour une gestion plus efficace et durable des végétaux en milieu urbain
Urban green space management is constantly evolving, transitioning from mere ornamental elements to ecosystems that provide a wide range of essential services to both humans and the environment. However, these services are not without cost, particularly in terms of water use. In this context, agronomic models, while numerous, do not constitute comprehensive decision support tools for urban green space professionals. To address this challenge, an approach that integrates decision theory and decision modeling has been developed. This approach aims to combine scientific knowledge with context-specific operational constraints. The goal is to provide precise and tailored scenarios for each situation, taking into account operational constraints and stakeholder expectations. A concrete example of this approach is the SARa agronomic model developed in this study, which assesses root activity in trees using tensiometric measurements. This model allows for continuous monitoring of tree establishment after transplantation, offering a proactive rather than reactive view of their survival. SARa parameters are then integrated into a decision support tool for deficit irrigation. In addition to the SARa agronomic model, the study also utilized the TeadXpert model to provide data on several parameters, such as the useful reserve at the roots (RUR). This data was crucial for informing the decision-making process regarding urban green space irrigation. The integration of these models, including SARa and TeadXpert, as well as the approach based on decision theory and decision modeling, constitutes a holistic approach aimed at improving the management of urban green spaces while optimizing water use. Moreover, the use of an ontology was explored to formalize knowledge in the field of deficit irrigation of urban green spaces, facilitating communication among stakeholders in the field. This study highlights the importance of integrating complex system models and operational constraint data in the development of decision support tools for urban green space professionals. This enables the consideration of operational realities while harnessing scientific advancements for more efficient and sustainable management of vegetation in urban environments
APA, Harvard, Vancouver, ISO, and other styles
44

Al, Hage Joelle. "Fusion de données tolérante aux défaillances : application à la surveillance de l’intégrité d’un système de localisation." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10074/document.

Full text
Abstract:
L'intérêt des recherches dans le domaine de la fusion de données multi-capteurs est en plein essor en raison de la diversité de ses secteurs d'applications. Plus particulièrement, dans le domaine de la robotique et de la localisation, l'exploitation des différentes informations fournies par les capteurs constitue une étape primordiale afin d'assurer une estimation fiable de la position. Dans ce contexte de fusion de données multi-capteurs, nous nous attachons à traiter le diagnostic, menant à l'identification de la cause d'une défaillance, et la tolérance de l'approche proposée aux défauts de capteurs, peu abordés dans la littérature.Nous avons fait le choix de développer une approche basée sur un formalisme purement informationnel : filtre informationnel d'une part, et outils de la théorie de l'information d'autre part. Des résidus basés sur la divergence de Kullback-Leibler sont développés. Via des méthodes optimisées de seuillage, ces résidus conduisent à la détection et à l'exclusion de ces défauts capteurs. La théorie proposée est éprouvée sur deux applications de localisation. La première application concerne la localisation collaborative, tolérante aux défauts d'un système multi-robots. La seconde application traite de la localisation en milieu ouvert utilisant un couplage serré GNSS/odométrie tolérant aux défauts
The interest of research in the multi-sensor data fusion field is growing because of its various applications sectors. Particularly, in the field of robotics and localization, the use of different sensors informations is a vital step to ensure a reliable position estimation. In this context of multi-sensor data fusion, we consider the diagnosis, leading to the identification of the cause of a failure, and the sensors faults tolerance aspect, discussed in limited work in the literature. We chose to develop an approach based on a purely informational formalism: information filter on the one hand and tools of the information theory on the other. Residuals based on the Kullback-Leibler divergence are developed. These residuals allow to detect and to exclude the faulty sensors through optimized thresholding methods. This theory is tested in two applications. The first application is the fault tolerant collaborative localization of a multi-robot system. The second application is the localization in outdoor environments using a tightly coupled GNSS/odometer with a fault tolerant aspect
APA, Harvard, Vancouver, ISO, and other styles
45

Bouillot, Flavien. "Classification de textes : de nouvelles pondérations adaptées aux petits volumes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS167.

Full text
Abstract:
Au quotidien, le réflexe de classifier est omniprésent et inconscient. Par exemple dans le processus de prise de décision où face à un élément (un objet, un événement, une personne) nous allons instinctivement chercher à rapprocher cet élément d'autres similaires afin d'adapter nos choix et nos comportements. Ce rangement dans telle ou telle catégorie repose sur les expériences passées et les caractéristiques de l'élément. Plus les expériences seront nombreuses et les caractéristiques détaillées, plus fine et pertinente sera la décision. Il en est de même lorsqu'il nous faut catégoriser un document en fonction de son contenu. Par exemple détecter s'il s'agit d'un conte pour enfants ou d'un traité de philosophie. Ce traitement est bien sûr d'autant plus efficace si nous possédons un grand nombre d'ouvrages de ces deux catégories et que l'ouvrage à classifier possède un nombre important de mots.Dans ce manuscrit nous nous intéressons à la problématique de la prise de décision lorsque justement nous disposons de peu de documents d'apprentissage et que le document possède un nombre de mots limité. Nous proposons pour cela une nouvelle approche qui repose sur de nouvelles pondérations. Elle nous permet de déterminer avec précision l'importance à accorder aux mots composant le document.Afin d'optimiser les traitements, nous proposons une approche paramétrable. Cinq paramètres rendent notre approche adaptable, quel que soit le problème de classification donné. De très nombreuses expérimentations ont été menées sur différents types de documents, dans différentes langues et dans différentes configurations. Selon les corpus, elles mettent en évidence que notre proposition nous permet d'obtenir des résultats supérieurs en comparaison avec les meilleures approches de la littérature pour traiter les problématiques de petits volumes.L'utilisation de paramètres introduit bien sur une complexité supplémentaire puisqu'il faut alors déterminer les valeurs optimales. Détecter les meilleurs paramètres et les meilleurs algorithmes est une tâche compliquée dont la difficulté est théorisée au travers du théorème du No-Free-Lunch. Nous traitons cette seconde problématique en proposant une nouvelle approche de méta-classification reposant sur les notions de distances et de similarités sémantiques. Plus précisément nous proposons de nouveaux méta-descripteurs adaptés dans un contexte de classification de documents. Cette approche originale nous permet d'obtenir des résultats similaires aux meilleures approches de la littérature tout en offrant des qualités supplémentaires.Pour conclure, les travaux présentés dans ce manuscrit ont fait l'objet de diverses implémentations techniques, une dans le logiciel Weka, une dans un prototype industriel et enfin une troisième dans le logiciel de la société ayant financé ces travaux
Every day, classification is omnipresent and unconscious. For example in the process of decision when faced with something (an object, an event, a person), we will instinctively think of similar elements in order to adapt our choices and behaviors. This storage in a particular category is based on past experiences and characteristics of the element. The largest and the most accurate will be experiments, the most relevant will be the decision. It is the same when we need to categorize a document based on its content. For example detect if there is a children's story or a philosophical treatise. This treatment is of course more effective if we have a large number of works of these two categories and if books had a large number of words. In this thesis we address the problem of decision making precisely when we have few learning documents and when the documents had a limited number of words. For this we propose a new approach based on new weights. It enables us to accurately determine the weight to be given to the words which compose the document.To optimize treatment, we propose a configurable approach. Five parameters make our adaptable approach, regardless of the classification given problem. Numerous experiments have been conducted on various types of documents in different languages and in different configurations. According to the corpus, they highlight that our proposal allows us to achieve superior results in comparison with the best approaches in the literature to address the problems of small dataset. The use of parameters adds complexity since it is then necessary to determine optimitales values. Detect the best settings and best algorithms is a complicated task whose difficulty is theorized through the theorem of No-Free-Lunch. We treat this second problem by proposing a new meta-classification approach based on the concepts of distance and semantic similarities. Specifically we propose new meta-features to deal in the context of classification of documents. This original approach allows us to achieve similar results with the best approaches to literature while providing additional features. In conclusion, the work presented in this manuscript has been integrated into various technical implementations, one in the Weka software, one in a industrial prototype and a third in the product of the company that funded this work
APA, Harvard, Vancouver, ISO, and other styles
46

O'Connor, Daniel. "Étude sur les perspectives des omnipraticiens du Québec quant à leur rôle-conseil concernant l'utilisation des médecines alternatives et complémentaires (MAC)." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/3975.

Full text
Abstract:
Les médecines alternatives et complémentaires (MAC) sont de plus en plus populaires en Occident et au Canada. Certaines MAC reposent sur des données probantes, mais bien des MAC se prêtent mal aux exigences de la démarche scientifique et demeurent des traitements non reconnus, parfois même néfastes ou pratiquées par des charlatans. Or, les usagers ont recours à ces formes de traitement sans nécessairement posséder les connaissances requises pour faire un choix éclairé et sécuritaire. Il faudrait donc, pour contribuer à assurer leur sécurité, voir à ce qu'ils soient suffisamment informés pour faire un choix éclairé.Les omnipraticiens, en raison de leur formation et importance dans la prestation des soins de santé, semblent bien placés pour remplir ce rôle (prévu par leurs obligations déontologiques) et aider les usagers à choisir judicieusement leurs traitements. Cependant, plusieurs auteurs ont relevé l'embarras des médecins à discuter des MAC avec leurs patients ou à les conseiller à ce sujet, ainsi que les besoins des médecins en matière de formation sur les MAC. Cela nous a amené à nous demander si les omnipraticiens se sentent en mesure de conseiller leurs patients sur l'utilisation des MAC. Pour atteindre notre objectif, nous avons effectué une recherche exploratoire descriptive avec méthodologie quantitative (enquête). Nous avons fait parvenir un questionnaire d'auto-perception à un échantillon aléatoire représentatif de 1000 omnipraticiens, constitué à partir d'une liste générée par un programme en lien avec la base de données du Collège des médecins du Québec et fournie par le Centre de formation continue de la Faculté de médecine et des sciences de la santé de l'Université de Sherbrooke, avec l'autorisation de son directeur. Nous avons fait trois envois : le questionnaire avec texte d'introduction à l'étude, une carte de rappel deux semaines plus tard et de nouveau le questionnaire deux semaines après l'envoi de la carte de rappel. Le texte d'introduction à l'étude précisait que la participation était anonyme et que le fait de compléter le questionnaire serait interprété comme un consentement à l'étude.Les analyses statistiques ont été faites à l'aide du logiciel SPSS, version 17.0. Nous avons obtenu un taux de réponse de 19,5 %. Nous avons constaté que 47,3 % des omnipraticiens interrogés considéraient qu'ils n'étaient généralement pas en mesure de conseiller leurs patients sur l'utilisation des MAC et que 50,3 % des répondants ne se sentaient pas à l'aise de répondre aux questions de leurs patients sur une MAC spécifique. De plus, moins du quart des omnipraticiens sondés (23,6 %) ont confirmé savoir où trouver des données probantes sur l'efficacité ou l'innocuité de MAC spécifiques. L'embarras que semblaient éprouver les répondants quant à leur rôle-conseil concernant l'utilisation des MAC et leur connaissance limitée des sources de données probantes pour ces approches font clairement ressortir d'importants besoins en matière de formation. C'est pourquoi nous croyons qu'une intensification des efforts de formation relatifs aux obligations déontologiques des médecins (pour les aider à définir leur rôle-conseil concernant l'utilisation des MAC) et aux sources de données probantes sur les MAC (pour appuyer leur jugement clinique) pourrait aider les omnipraticiens du Québec à se sentir plus à l'aise dans leur rôle auprès des patients qui envisagent ou choisissent d'utiliser une MAC, afin, espérons-nous, de favoriser la communication avec ces patients à ce sujet et contribuer à assurer leur sécurité en réduisant le risque d'effets secondaires et d'interactions nocives.
APA, Harvard, Vancouver, ISO, and other styles
47

Hamdan, Hani. "Développement de méthodes de classification pour le contrôle par émission acoustique d'appareils à pression." Compiègne, 2005. http://www.theses.fr/2005COMP1583.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre d'aide à la décision en temps réel pour le contrôle par émission acoustique des équipements sous pression. Le problème visé est la prise en compte de l'incertitude de localisation des signaux d'émission acoustique, dans la classification basée sur le modèle de mélange. Deux nouveaux algorithmes (EM et CEM pour les données incertaines) sont alors développés. Ces algorithmes se basent uniquement sur des données de type zone d'incertitude et leur développement est effectué en optimisant des nouveaux critères de vraisemblance adaptés à ce type de données. Pour accélérer le traitement des données lorsque leur taille devient très grande, nous développons également une nouvelle méthode de discrétisation de données incertaines. Cette méthode est comparée à celle classique appliquée aux données imprécises. Une étude expérimentale sur des données simulées et des données réelles met en évidence l'efficacité des différentes approches développées
This PhD thesis deals with real-time computer-aided decision for acoustic emission-based control of pressure equipments. The addressed problem is the taking into account of the location uncertainty of acoustic emission signals, in the mixture model-based clustering. Two new algorithms (EM and CEM for uncertain data) are developed. These algorithms are only based on uncertainty zone data and their development is carried out by optimizing new likelihood criteria adapted to this kind of data. In order to speed up the data processing when the data size becomes very big, we have also developed a new method for the discretization of uncertainty zone data. This method is compared with the traditional one applied to imprecise data. An experimental study using simulated and real data shows the efficiency of the various developed approaches
APA, Harvard, Vancouver, ISO, and other styles
48

Douplat, Marion. "Les décisions de limitations et d'arrêts des thérapeutiques à l'épreuve de la temporalité des urgences : enjeux éthiques." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0756.

Full text
Abstract:
Les décisions de limitations et d’arrêts des thérapeutiques aux urgences sont fréquentes dans les services d’urgence où la mort fait partie du quotidien. La prise de ces décisions entraine des dilemmes éthiques pour les équipes soignantes et les familles des patients dans le contexte de la temporalité propre aux services d’urgence et des évolutions législatives encadrées par les dernières lois relatives aux droits du malade en fin de vie. Les soignants doivent s’attacher à conduire une réflexion respectant les principes éthiques que sont l’autonomie, la bienfaisance, la non malfaisance et l’équité dans les soins. Il apparait donc un antagonisme entre l’urgence et la complexité d’élaborer les décisions de limitations et d’arrêts des thérapeutiques. Il y a peu de données actuelles dans la littérature sur les décisions de limitations et d’arrêts des thérapeutiques aux urgences et en particulier sur leurs modalités et leur implication pour les soignants et soignés. L’absence de données nous a conduits à nous interroger d’une part sur le positionnement des médecins lors de la prise de décisions de limitations ou d’arrêts des thérapeutiques dans le contexte des services d’urgence et d’autre part sur le vécu des familles ou accompagnants au cours de ces décisions. Notre recherche s’articule autour de trois axes : le premier axe évaluera la perception du processus décisionnel par les médecins urgentistes. Le deuxième axe s’intéressera au vécu des familles dans les décisions de limitations ou d’arrêts des thérapeutiques et enfin le dernier axe étudiera l’implication du médecin généraliste dans les décisions de limitations et arrêts des thérapeutiques aux urgences
Decisions of withholding or withdrawing life-sustaining treatments are frequent in emergency departments where death is an everyday reality. These decisions lead to ethical dilemmas for physicians, nurses, and relatives with regards to the timing of the emergency departments and the evolution of the French legislation in particular the law on the rights of the patients and the persons who are nearing the end of life. Moreover, the caregivers should have an ethical thinking-process in order to respect ethical principles such as autonomy, beneficence, non-malfeasance and justice. There seems to be a conflict between the emergency situation and the complexity of the decision-making process. There is only few data concerning the decisions of withholding or withdrawing life sustaining treatments especially about modality of these decisions and the implications for caregivers and relatives. Because of the lack of data, we decided to explore the physicians’ experience during the decision-making process in the emergency departments and the perception of the relatives after the decision of withholding or withdrawing life-sustaining treatment. Our study consists in three parts: a study which evaluates the physicians’ experience during the decision-making process; then, a study describing the relatives’ perception of the decisions of withholding or withdrawing life-sustaining treatments and finally a study about the involvement of general practitioners in the decision-making process
APA, Harvard, Vancouver, ISO, and other styles
49

De, Carvalho Gomes Fernando. "Utilisation d'algorithmes stochastiques en apprentissage." Montpellier 2, 1992. http://www.theses.fr/1992MON20254.

Full text
Abstract:
Dans le cadre de l'apprentissage inductif, les données sont souvent mal décrites et bruitées. Dans ce cas, la génération de procédures de classification présentant une parfaite adéquation aux données, produit des résultats de taille (ou complexité) importante. Les performances sont excellentes sur les données ayant servi à apprendre, mais mauvaises sur un ensemble test. On cherche alors des procédures présentant un bon compromis complexité adéquation aux données et la tache se rapproche de l'optimisation. Plusieurs approches gloutonnes ont été proposées. L'objet de cette thèse est de proposer une approche plus puissante. L'apport principal est un algorithme d'apprentissage base sur la recherche stochastique d'une liste de décision de faible complexité. Cet algorithme procède en deux phases distinctes: la diversification et l'intensification de la recherche, exécutées respectivement par le recuit simule et par la méthode tabou
APA, Harvard, Vancouver, ISO, and other styles
50

Bouba, Fanta. "Système d'information décisionnel sur les interactions environnement-santé : cas de la Fièvre de la Vallée du Rift au Ferlo (Sénégal)." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066461.

Full text
Abstract:
Notre recherche se situe dans le cadre du projet QWECI (Quantifying Weather and Climate Impacts on Health in Developing Countries, UE FP7) en partenariat avec l’UCAD, le CSE et l’IPD, autour de la thématique environnement-santé avec comme cas pratique les maladies à vecteurs au Sénégal et plus particulièrement la Fièvre de la Vallée du Rift (FVR). La santé des populations humaines et animales est souvent fortement influencée par l’environnement. D’ailleurs, la recherche sur les facteurs de propagation des maladies à transmission vectorielle, telle que la FVR, prend en compte cette problématique dans sa dimension aussi bien physique que socio-économique. Apparue en 1912-1913 au Kenya, la FVR est une anthropo-zoonose virale répandue dans les régions tropicales qui concerne principalement les animaux mais dont les hommes peuvent aussi être touchés. Au Sénégal, la zone à risque concerne en majorité la vallée du fleuve Sénégal et la zone sylvo-pastorale du Ferlo. Bien que de climat sahélien, le Ferlo regorge de nombreuses mares qui sont des sources d’approvisionnement en eau pour les hommes et le bétail mais également les gîtes larvaires pour les vecteurs potentiels de la FVR. La maîtrise de la FVR, carrefour de trois (03) grands systèmes (agro-écologique, pathogène, économique/sanitaire/social), implique nécessairement la prise en compte de plusieurs paramètres si l’on veut d’abord comprendre les mécanismes d’émergence mais aussi envisager le travail de modélisation du risque. Notre travail porte sur le processus décisionnel pour quantifier l’utilisation de données sanitaires et environnementales dans l’évaluation de leur impact pour le suivi de la FVR. Les équipes de recherche impliquées produisent des données lors de leurs enquêtes de terrains et des analyses de laboratoire. Ce flot de données croissant devrait être stocké et préparé à des études corrélées grâce aux nouvelles techniques de stockage que sont les entrepôts de données. A propos de l’analyse des données, il ne suffit pas de s’appuyer seulement sur les techniques classiques telles que les statistiques. En effet, la valeur ajoutée de contribution sur la question s’oriente vers une analyse prédictive combinant à la fois les techniques agrégées de stockage et des outils de traitement. Ainsi, pour la découverte d’informations, nouvelles et pertinentes à priori non évidentes, il est nécessaire de s’orienter vers la fouille de données. Par ailleurs, l’évolution de la maladie étant fortement liée à la dynamique spatio-temporelle environnementale des différents acteurs (vecteurs, virus et hôtes), cause pour laquelle nous nous appuyons sur les motifs spatio-temporels pour identifier et mesurer certaines interactions entre les paramètres environnementaux et les acteurs impliqués. Grâce au processus décisionnel, les résultats qui en découlent sont multiples :i. suivant la formalisation de la modélisation multidimensionnelle, nous avons construit un entrepôt de données intégré qui regroupe l’ensemble des objets qui participent à la gestion du risque sanitaire – ce modèle peut être généralisé aux maladies à vecteurs ;ii. malgré une très grande variété de moustiques, les Culex de type neavei et les Aedes de type ochraceus et vexans sont les vecteurs potentiels de la FVR les plus présents dans la zone d’étude et ce, durant la saison des pluies, période la plus sujette à des cas suspects ; la période à risque reste quand même le mois d’octobre ;iii. les mares analysées ont quasiment le même comportement, mais des variations significatives subsistent par endroits.Ce travail de recherche démontre une fois de plus l’intérêt pour la mise en évidence des relations entre les données environnementales et la FVR à partir de méthodes de fouille de données, pour la surveillance spatio-temporelle du risque d’émergence
Our research is in part of the QWeCI european project (Quantifying Weather and Climate Impacts on Health in Developing Countries, EU FP7) in partnership with UCAD, the CSE and the IPD, around the theme of environmental health with the practical case on vector-borne diseases in Senegal and particularly the Valley Fever (RVF). The health of human and animal populations is often strongly influenced by the environment. Moreover, research on spread factors of vector-borne diseases such as RVF, considers this issue in its dimension both physical and socio-economic. Appeared in 1912-1913 in Kenya, RVF is a widespread viral anthropo-zoonosis in tropical regions which concerns animals but men can also be affected. In Senegal, the risk area concerns mainly the Senegal River Valley and the forestry-pastoral areas Ferlo. With a Sahelian climate, the Ferlo has several ponds that are sources of water supply for humans and livestock but also breeding sites for potential vectors of RVF. The controlling of the RVF, which is crossroads of three (03) large systems (agro-ecological, pathogen, economic/health/social), necessarily entails consideration of several parameters if one wants to first understand the mechanisms emergence but also consider the work on risk modeling. Our work focuses on the decision making process for quantify the use of health data and environmental data in the impact assessment for the monitoring of RVF. Research teams involved produce data during their investigations periods and laboratory analyzes. The growing flood of data should be stored and prepared for correlated studies with new storage techniques such as datawarehouses. About the data analysis, it is not enough to rely only on conventional techniques such as statistics. Indeed, the contribution on the issue is moving towards a predictive analysis combining both aggregate storage techniques and processing tools. Thus, to discover information, it is necessary to move towards datamining. Furthermore, the evolution of the disease is strongly linked to environmental spatio-temporal dynamics of different actors (vectors, viruses, and hosts), cause for which we rely on spatio-temporal patterns to identify and measure interactions between environmental parameters and the actors involved. With the decision-making process, we have obtained many results :i. following the formalization of multidimensional modeling, we have built an integrated datawarehouse that includes all the objects that are involved in managing the health risk - this model can be generalized to others vector-borne diseases;ii. despite a very wide variety of mosquitoes, Culex neavei, Aedes ochraceus and Aedes vexans are potential vectors of FVR. They are most present in the study area and, during the rainy season period which is most prone to suspected cases; the risk period still remains the month of October;iii. the analyzed ponds have almost the same behavior, but significant variations exist in some points.This research shows once again the interest in the discovery of relationships between environmental data and the FVR with datamining methods for the spatio-temporal monitoring of the risk of emergence
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography