Tesis sobre el tema "Gestion des données basée sur des connaissances"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Gestion des données basée sur des connaissances.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 39 mejores tesis para su investigación sobre el tema "Gestion des données basée sur des connaissances".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

L'Héritier, Cécile. "Une approche de retour d’expérience basée sur l’analyse multicritère et l’extraction de connaissances : Application au domaine humanitaire". Thesis, Nîmes, 2020. http://www.theses.fr/2020NIME0001.

Texto completo
Resumen
Ce sujet de recherche est centré sur la problématique de gestion des connaissances et des savoir-faire au sein d’une l’organisation humanitaire intervenant en situations d’urgence. Dans le contexte d’une ONG, possédant une grande richesse immatérielle, la capitalisation – et à plus grande échelle de la gestion de connaissance – répond à des enjeux à la fois opérationnels et stratégiques. Les objectifs de ce travail de recherche consistent donc, dans une première phase, à définir, développer puis tester et valider des méthodes et outils adaptés pour mener une capitalisation au sein de l’organisation grâce au retour d’expérience. Dans un second temps, l’exploitation et l’analyse des récits et des données extraites permettront de définir les processus de décision qui ont été impliqués pour résoudre une situation d’urgence donnée. Plus précisément, il s’agira d’expliquer pourquoi et comment les décisions ont été prises en situation d’urgence. L’objectif sera de dégager, non pas une somme d’information mais une manière de réfléchir et de raisonner, transférable et réutilisable permettant de résoudre d’autres situations présentant des similitudes. L’ensemble de ce travail fournira des éléments et outils permettant l’amélioration des pratiques et leur diffusion ou transmission en facilitant et en rendant plus efficace la formation au sein de l’organisation. Le retour d’expérience, RETEX, sera abordé comme un des éléments d’une démarche de progrès, et non comme une évaluation formulant un jugement sur l’action par rapport à un cadre règlementaire. La capitalisation doit révéler la manière qui a permis d’atteindre le but, sans en juger la qualité. En effet, ici, l’objectif du RETEX n’est pas de mettre en lumière un dysfonctionnement, mais de mettre en place un historique des activités et processus déployés et de porter un regard critique sur leur gestion. Compte tenu, de la différence de contexte entre ONG et structures industrielles privées ; il est primordial d’extrapoler et d’adapter les méthodes de RETEX existantes pour l’industrie. Il s’agit donc ici de développer une méthodologie adaptée pour répondre aux problématiques spécifiques des organisations humanitaires. La méthodologie proposée sera testée et validée avec une ou plusieurs études de cas et permettra la formalisation de l'expérience, essentielle pour la rendre exploitable. Le travail s’attachera également à identifier et analyser les indicateurs de prise de décision dans les différents retours d’expérience et études de cas traités pour être en mesure d’expliquer la décision et en extraire une façon de réfléchir, et de éléments de l’ordre méthodologique
Because of its critical impacts on performance and competitivity, organizations’ knowledge is today considered to be an invaluable asset. In this context, the development of methods and frameworks aiming at improving knowledge preservation and exploitation is of major interest. Within Lessons Learned framework – which proposes relevant methods to tackle these challenges –, we propose to work on an approach mixing Knowledge Representation, Multiple-Criteria Decision Analysis and Inductive Reasoning for inferring general learnings by analyzing past experiences. The proposed approach, which is founded on a specific case-based reasoning, intends to study the similarities of past experiences – shared features, patterns – and their potential influence on the overall success of cases through the identification of a set of criteria having a major contribution on this success. For the purpose of highlighting this potential causal link to infer general learnings, we envisage relying on inductive reasoning techniques. The considered work will be developed and validated through the scope of a humanitarian organization, Médecins Sans Frontières, with a focus on the logistical response in emergency situations
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

You, Wei. "Un système à l'approche basée sur le contenu pour la recommandation personnalisée d'articles de recherche". Compiègne, 2011. http://www.theses.fr/2011COMP1922.

Texto completo
Resumen
La recommandation personnalisée d'article de recherche filtre les publications selon les centres d'intérêt spécifiques en recherche des utilisateurs, et, bien menée, pourrait considérablement alléger le problème de la surcharge d'informations. Le filtrage basé sur le contenu est une solution prometteuse pour cette tâche parce qu'elle exploite efficacement la nature textuelle des articles de recherche. En général, la recommandation d'articles de recherche basée sur le contenu pose trois questions essentielles : la représentation des articles candidats, la construction du profil utilisateur, et la conception d'un modèle qui permette de comparer la représentation du contenu des articles candidats avec la représentation des intérêts de l'utilisateur cible. Dans cette thèse, nous développons tout d'abord une technique d'extraction automatique d'expressions-clés pour représenter les articles scientifiques. Cette technique améliore les approches existantes en utilisant une localisation plus précise des expressions-clés potentielles et une nouvelle stratégie pour éliminer le chevauchement dans la liste de sortie. Cette technique est un acteur majeur du système : en effet, non seulement elle fournit une représentation de l'article candidat, mais elle est également réutilisée pour la construction de l'ontologie de domaine, et pour l'analyse des articles appartenant à l'histoire des utilisateurs. Ensuite, pour la construction du profil utilisateur, nous proposons une nouvelle approche basée sur les ontologies. Le profil ontologique de l'utilisateur peut être décrit comme suit : tous les utilisateurs partagent une ontologie de domaine commune qui représente la base de connaissances des utilisateurs. Pour chaque utilisateur, nous créons alors une instance personnelle de l'ontologie étendue pour représenter ses besoins spécifiques. Cette instance personnelle contient tous les concepts intéressants pour l'utilisateur, et chaque concept est annoté par un score d'intérêt qui reflète le degré d'intérêt de l'utilisateur pour ce concept. On distingue les chercheurs chevronnés et les jeunes chercheurs en dérivant leurs intérêts en recherche individuelle à partir des différents ensembles de leur histoire. Nous utilisons également la structure des ontologies et appliquons l'algorithme de propagation nommé "spreading activation" pour déduire les intérêts possibles de l'utilisateur. Finalement, nous explorons un nouveau modèle pour produire des recommandations en recourant à la théorie Dempster-Shafer. On observe que quand un chercheur veut décider si oui ou non un article de recherche l'intéresse, il peut considérer le texte de l'article comme une suite d'expressions. Les expressions relatives à ses centres d'intérêt en recherche encouragent une lecture poussée de l'article, tandis que les expressions relevant de sujets qui ne l'intéressent pas diminuent son intérêt pour l'article. Notre modèle simule ce processus d'évaluation. Du point de vue de la théorie de croyance, les termes clés extraits à partir d'un article candidat peuvent être considérés comme des sources de croyance. A ces parts de croyance, notre modèle associe des degrés d'intérêt de l'utilisateur. Dés lors, comme ces croyances s'accumulent et se renforcent, une inclination prend forme et devient graduellement plus nette. Différentes d'autres mesures basées sur la similarité entre la représentation des articles candidats et les profils utilisateur, nos recommandations, produites en combinant toutes les parts de croyance, peuvent directement mesurer à quel point l'utilisateur pourrait être intéressé par l'article candidat. Les résultats expérimentaux montrent que le système que nous avons développé surpasse la plupart des approches actuelles. De plus, la méthode proposée est suffisamment générique pour permettre la résolution d'autres tâches de recommandation
Personalized research paper recommendation filters the publications according to the specific research interests of users, which could significantly alleviate the information overload problem. Content-based filtering is a promising solution for this task because it can effectively exploit the textual-nature of research papers. A content-based recommender system usually concerns three essential issues: item representation, user profiling, and a model that provides recommendations by comparing candidate item's content representation with the target user's interest representation. In this dissertation, we first propose an automatic keyphrase extraction technique for scientific documents, which improves the existing approaches by using a more precise location for potential keyphrases and a new strategy for eliminating the overlap in the output list. This technique helps to implement the representation of candidate papers and the analysis of users' history papers. Then for modeling the users' information needs, we present a new ontology-based approach. The basic idea is that each user is represented as an instance of a domain ontology in which concepts are assigned interest scores reflecting users' degree of interest. We distinguish senior researchers and junior researchers by deriving their individual research interests from different history paper sets. We also takes advantage of the structure of the ontology and apply spreading activation model to reason about the interests of users. Finally, we explore a novel model to generate recommendations by resorting to the Dempster-Shafer theory. Keyphrases extracted from the candidate paper are considered as sources of evidence. Each of them are linked to different levels of user interest and the strength of each link is quantified. Different from other similarity measures between user profiles and candidate papers, our recommendation result produced by combining all evidence is able to directly indicate the possibility that a user might be interested in the candidate paper. Experimental results show that the system we developed for personalized research paper recommendation outperforms other state-of-the-art approaches. The proposed method can be used as a generic way for addressing different types of recommendation problems
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Bruneau, Marina. "Une méthodologie de Reverse Engineering à partir de données hétérogènes pour les pièces et assemblages mécaniques". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2267/document.

Texto completo
Resumen
Cette thèse traite d'une méthodologie de Reverse Engineering (RE) d'assemblages mécaniques à partir de données hétérogènes dans un contexte routinier. Cette activité consiste à partir d'un produit ou d'un assemblage, à récupérer la donnée numérique en partant de la donnée physique dans le but de reconstruire sa ma­quette numérique. Plusieurs techniques de numérisation peuvent être employées et permettent de générer des données de différents types (ex : nuage de points, photographies). Ces dernières sont utilisées comme données d'entrée à notre pro­cessus de RE et peuvent aussi être associées à des données liées au produit, exis­tantes au préalable, telles que des mises en plan ou encore une version antérieure de la maquette numérique du produit. Le traitement de l'ensemble de ces don­nées, dites "hétérogènes", requiert une solution qui soit capable de gérer d'une part, l'hétérogénéité des données et des informations qu'elles contiennent et d'autre part, l'incomplétude de certaines données qui est liée au bruit ou à la technologie utilisée pour numériser l'assemblage (ex : scanner ou photographie). Enfin la pertinence des informations extraites lors de la phase de traitement doit permettre, dans cer­tains cas, de générer des modèles CAO paramétrés, propres à l'activité de RE de l'entreprise ou du domaine d'application. L'état de l'art sur la reconnaissance de formes dans des données hétérogènes ainsi que sur la gestion de connaissances dans le cadre d'activités routinières, pro­pose des approches qui traitent soit d'un seul type de données, soit du RE de pièce unique ou soit elles ne permettent pas d'obtenir un modèle CAO qui soit exploitable (paramétrage géométrique des entités) pour une activité de RE. Cette thèse propose une méthodologie nommée Heterogeneous Data Integration for Reverse Engineering (HDI-RE) et qui se décompose en trois étapes : la seg­mentation, la signature et la comparaison avec une base de connaissances. Le but de cette méthode est d'automatiser le processus de RE et notamment en ce qui concerne les étapes de reconnaissance de composants dans les données d'entrée et d'aide à la reconstruction de modèles CAO (paramétrés ou non) en récupérant des informations géométriques et topologiques dans des données d'entrée. Pour cela, ces dernières sont segmentées afin d'en extraire des informations qui sont en­ suite formalisées sous la forme de signatures. Les signatures générées sont ensuite comparées à une base de connaissances comportant un ensemble de signatures de différents types et appartenant à des produits ou objets déjà connus. Le calcul des similarités issu de la comparaison permet d'identifier les composants présents dans les données en entrée. L'apport scientifique de ces travaux repose principalement sur l'utilisation de sig­natures qui, en fonction du souhait de l'utilisateur, permettent de reconstruire une maquette numérique en sortie du processus de RE avec trois niveaux d'information : un niveau global, un niveau géométrique et topologique ou un niveau fonctionnel. Par rapport à chaque niveau et du type de données traité, un mécanisme de signa­ture dédié est proposé
This thesis deals with a methodology of Reverse Engineering (RE) of mechanical assemblies from heterogeneous data in a routine context. This activity consists, from the existing data of a part or an assembly, in rebuilding their digital mock-up. The data used in entrance of our process of RE can be drawings, photos, points clouds or another existing version of the digital mock-up. The proposed approach, called Heterogeneous Data Integration for Reverse Engineering (HDI-RE), is divided into three steps : the segmentation, the signature and the comparison of the initial data with a knowledge database. The signatures of the studied object are compared with the signatures of the same type existing in the database in order to extract components ordered by similarity (distance with the object). The parameterized digital mock-up which is the most similar to the object is then extracted and its parameters identified from the initial data. Data set processing, called "heterogeneous" data, requires a solution which is able to manage on one hand, the heterogeneousness of the data and the information which they contain and on the other hand, the incompleteness of some data which are in link with the noise (into points cloud) or with the technology used to digitize the assembly (ex: scanner or photography)
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Romero, Julien. "Harvesting commonsense and hidden knowledge from web services". Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT032.

Texto completo
Resumen
In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.Dans cette thèse, nous collectons sur le web deux types de connaissances. Le premier porte sur le sens commun, i.e. des connaissances intuitives partagées par la plupart des gens comme ``le ciel est bleu''. Nous utilisons des logs de requêtes et des forums de questions-réponses pour extraire des faits essentiels grâce à des questions avec une forme particulière. Ensuite, nous validons nos affirmations grâce à d'autres ressources comme Wikipedia, Google Books ou les tags d'images sur Flickr. Finalement, nous groupons tous les signaux pour donner un score à chaque fait. Nous obtenons une base de connaissance, QUASIMODO, qui, comparée à ses concurrents, montre une plus grande précision et collecte plus de faits essentiels.Le deuxième type de connaissances qui nous intéresse sont les connaissances cachées, i.e. qui ne sont pas directement données par un fournisseur de données. En effet, les services web donnent généralement un accès partiel à l'information. Il faut donc combiner des méthodes d'accès pour obtenir plus de connaissances: c'est de la réécriture de requête. Dans un premier scénario, nous étudions le cas où les fonctions ont la forme d'un chemin, la base de donnée est contrainte par des "dépendences d'inclusion unitaires" et les requêtes sont atomiques. Nous montrons que le problème est alors décidable en temps polynomial. Ensuite, nous retirons toutes les contraites et nous créons un nouvelle catégorie pertinente de plans: les "smart plans". Nous montrons qu'il est décidable de les trouver
In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.The other kind of knowledge we investigate is hidden knowledge, i.e. knowledge not directly given by a data provider. More concretely, some Web services allow accessing the data only through predefined access functions. To answer a user query, we have to combine different such access functions, i.e., we have to rewrite the query in terms of the functions. We study two different scenarios: In the first scenario, the access functions have the shape of a path, the knowledge base respects constraints called ``Unary Inclusion Dependencies'', and the query is atomic. We show that the problem is decidable in polynomial time, and we provide an algorithm with theoretical evidence. In the second scenario, we remove the constraints and create a new class of relevant plans called "smart plans". We show that it is decidable to find these plans and we provide an algorithm
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Pérution-Kihli, Guillaume. "Data Management in the Existential Rule Framework : Translation of Queries and Constraints". Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS030.

Texto completo
Resumen
Le contexte général de ce travail est la problématique de la conception de systèmes de haute qualité intégrant plusieurs sources de données via une couche sémantique codée dans un langage de représentation et de raisonnement sur les connaissances. Nous considérons les systèmes de gestion de données basés sur des connaissances (KBDM), qui sont structurés en trois couches : la couche de données, qui comprend les sources de données, la couche de connaissances (ou ontologique), et les mappings entre les deux. Les mappings et les connaissances sont exprimés dans le cadre des règles existentielles. Une des difficultés intrinsèques à la conception d'un système KBDM est la nécessité de comprendre le contenu des sources de données. Les sources de données sont souvent fournies avec des requêtes et des contraintes typiques, à partir desquelles on peut tirer des informations précieuses sur leur sémantique, tant que cette information est rendue intelligible aux concepteurs du système KBDM. Cela nous amène à notre question centrale : est-il possible de traduire les requêtes et les contraintes des données au niveau de la connaissance tout en préservant leur sémantique ? Les principales contributions de cette thèse sont les suivantes. Nous étendons les travaux antérieurs sur la traduction de requêtes sur les données vers l'ontologie avec de nouvelles techniques pour le calcul de traductions de requêtes parfaites, minimalement complètes ou maximalement adéquates. En ce qui concerne la traduction des contraintes sur les données vers l'ontologie, nous définissons un cadre général et l'appliquons à plusieurs classes de contraintes. Enfin, nous fournissons un opérateur de réécriture de requêtes adéquat et complet pour les règles existentielles disjonctives et les mappings disjonctifs, ainsi que des résultats d'indécidabilité, qui sont d'un intérêt indépendant
The general context of this work is the issue of designing high-quality systems that integrate multiple data sources via a semantic layer encoded in a knowledge representation and reasoning language. We consider knowledge-based data management (KBDM) systems, which are structured in three layers: the data layer, which comprises the data sources, the knowledge (or ontological) layer, and the mappings between the two. Mappings and knowledge are expressed within the existential rule framework. One of the intrinsic difficulties in designing a KBDM is the need to understand the content of data sources. Data sources are often provided with typical queries and constraints, from which valuable information about their semantics can be drawn, as long as this information is made intelligible to KBDM designers. This motivates our core question: is it possible to translate data queries and constraints at the knowledge level while preserving their semantics?The main contributions of this thesis are the following. We extend previous work on data-to-ontology query translation with new techniques for the computation of perfect, minimally complete, or maximally sound query translations. Concerning data-to-ontology constraint translation, we define a general framework and apply it to several classes of constraints. Finally, we provide a sound and complete query rewriting operator for disjunctive existential rules and disjunctive mappings, as well as undecidability results, which are of independent interest
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Antoine, Emilien. "Distributed data management with a declarative rule-based language webdamlog". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00933808.

Texto completo
Resumen
Our goal is to enable aWeb user to easily specify distributed data managementtasks in place, i.e. without centralizing the data to a single provider. Oursystem is therefore not a replacement for Facebook, or any centralized system,but an alternative that allows users to launch their own peers on their machinesprocessing their own local personal data, and possibly collaborating with Webservices.We introduce Webdamlog, a datalog-style language for managing distributeddata and knowledge. The language extends datalog in a numberof ways, notably with a novel feature, namely delegation, allowing peersto exchange not only facts but also rules. We present a user study thatdemonstrates the usability of the language. We describe a Webdamlog enginethat extends a distributed datalog engine, namely Bud, with the supportof delegation and of a number of other novelties of Webdamlog such as thepossibility to have variables denoting peers or relations. We mention noveloptimization techniques, notably one based on the provenance of facts andrules. We exhibit experiments that demonstrate that the rich features ofWebdamlog can be supported at reasonable cost and that the engine scales tolarge volumes of data. Finally, we discuss the implementation of a Webdamlogpeer system that provides an environment for the engine. In particular, a peersupports wrappers to exchange Webdamlog data with non-Webdamlog peers.We illustrate these peers by presenting a picture management applicationthat we used for demonstration purposes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Yassir-Montet, Djida. "Une Approche hybride de gestion des connaissances basée sur les ontologies : application aux incidents informatiques". Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0110/these.pdf.

Texto completo
Resumen
Le travail développé dans cette thèse concerne la problématique de gestion des connaissances au sein des organisations. Le but est de proposer des aides méthodologiques et des outils facilitant la capitalisation et la réutilisation des connaissances produites et/ou utilisées par les acteurs d’une entreprise. Nous avons proposé une approche hybride basée sur une ontologie du domaine. La mise en œuvre de cette approche privilégie l’utilisation des techniques du web sémantique tels que XML et OWL. Dans ce contexte, nous avons conçu une mémoire d’entreprise pouvant s’interfacer avec le système d’information de l’entreprise. En nous plaçant dans le contexte d’applications logicielles produites et/ ou mises en production par le CIRTIL, organisme attaché à la sécurité sociale, pour le compte de ses clients qui sont les URSSAF, nous avons élaboré une ontologie du domaine des incidents informatiques. Cette ontologie est considérée comme un modèle qui permet, en plus des représentations formelles et consensuelles des connaissances du domaine, un accès unique aux ressources de connaissances via une terminologie partageable et non ambiguë tout en offrant des mécanismes de raisonnement sur les connaissances modélisées
The work developped in this thesis deals with the problem of knowledge management within the organizations. Its aim is to propose methodological assistances and tools fa-cilitating the capitalization and reuse of knowledge producted and/or used by the actors of a company. We have suggested a hybrid approach based on a domain ontology. Set-tling down this approach requires the use of the techniques of the semantic Web such as XML and OWL. In this context, we have designed a corporate memory being able to interface with the information system of the company. Looking focustly on the context of software applications produced and/or being in production by the CIRTIL, organiza-tion attached to the social security in France for the account of its customers which are the URSSAF, we have developed a domain ontology of tha data-processing incidents. This ontology is regarded as a model which allows not only formal and consensual rep-resentations of knowledge of the field, but also a single access to knowledge resources thanks a shareable and nonambiguous terminology while offering mechanisms of rason-ing on modelled knowledge
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Chamekh, Fatma. "L’évolution du web de données basée sur un système multi-agents". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3083/document.

Texto completo
Resumen
Cette thèse porte sur la modélisation d’un système d’aide à l’évolution du web de données en utilisant un système multi-agents. Plus particulièrement, elle a pour but de guider l’utilisateur dans sa démarche de modification d’une base de connaissances RDF. Elle aborde les problématiques suivantes : intégrer de nouveaux triplets résultant de l'annotation des documents, proposer le changement adéquat dans les deux niveaux, ontologie et données, en se basant sur des mesures de similarités, analyser les effets de changements sur la qualité des données et la gestion des versions en prenant en considération d'éventuels conflits. Cette question de recherche complexe engendre plusieurs problématiques dont les réponses sont dépendantes les unes des autres. Pour cela, nous nous sommes orientées vers le paradigme agent pour décomposer le problème. Il s’agit de répartir les tâches dans des agents. La coopération entre les agents permet de répondre au besoin de dépendance évoqué ci-dessus pour bénéficier de l’aspect dynamique et combler les inconvénients d’un système modulaire classique. Le choix d’un tel écosystème nous a permis de proposer une démarche d’évaluation de la qualité des données en employant un modèle d’argumentation. Il s’agit d’établir un consensus entre les agents pour prendre en considération les trois dimensions intrinsèques : la cohérence, la concision la complétude, la validation syntaxique et sémantique. Nous avons modélisé les métriques d’évaluation de chaque dimension sous forme d’arguments. L’acceptation ou pas d’un argument se décide via les préférences des agents.Chaque modification donne lieu à une nouvelle version de la base de connaissances RDF. Nous avons choisi de garder la dernière version de la base de connaissances. Pour cette raison, nous avons choisi de préserver les URI des ressources. Pour garder la trace des changements, nous annotons chaque ressource modifiée. Néanmoins, une base de connaissances peut être modifiée par plusieurs collaborateurs ce qui peut engendrer des conflits. Ils sont conjointement le résultat d’intégration de plusieurs données et le chevauchement des buts des agents. Pour gérer ces conflits, nous avons défini des règles. Nous avons appliqué notre travail de recherche au domaine de médecine générale
In this thesis, we investigate the evolution of RDF datasets from documents and LOD. We identify the following issues : the integration of new triples, the proposition of changes by taking into account the data quality and the management of differents versions.To handle with the complexity of the web of data evolution, we propose an agent based argumentation framework. We assume that the agent specifications could facilitate the process of RDF dataset evolution. The agent technology is one of the most useful solution to cope with a complex problem. The agents work as a team and are autonomous in the sense that they have the ability to decide themselves which goals they should adopt and how these goals should be acheived. The Agents use argumentation theory to reach a consensus about the best change alternative. Relatively to this goal, we propose an argumentation model based on the metric related to the intrinsic dimensions.To keep a record of all the occured modifications, we are focused on the ressource version. In the case of a collaborative environment, several conflicts could be generated. To manage those conflicts, we define rules.The exploited domain is general medecine
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Jaillet, Simon. "Catégorisation automatique de documents textuels : D'une représentation basée sur les concepts aux motifs séquentiels". Montpellier 2, 2005. http://www.theses.fr/2005MON20030.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Ouertani, Mohamed Zied. "DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception". Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Texto completo
Resumen
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Pierret, Jean-Dominique. "Méthodologie et structuration d'un outil de découverte de connaissances basé sur la littérature biomédicale : une application basée sur l'exploitation du MeSH". Toulon, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Texto completo
Resumen
L´information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d´exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d´une requête est donc un ensemble d´informations connues qui n´apporte en lui-même aucune nouveauté. Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l´information disponible qu´à la méthodologie utilisée. Cette méthodologie générale s´applique de façon privilégiée dans un environnement d´information validée et structurée ce qui est le cas de l´information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu´elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d´information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature
The information available in bibliographic databases is dated and validated by a long process and becomes not very innovative. Usually bibliographic databases are consultated in a boolean way. The result of a request represente is a set of known which do not bring any additional novelty. In 1985 Don Swanson proposed an original method to draw out innovative information from bibliographic databases. His reasoning is based on systematic use of the biomedical literature to draw the latent connections between different well established knowledges. He demonstrated unsuspected potential of bibliographic databases in knowledge discovery. The value of his work did not lie in the nature of the available information but consisted in the methodology he used. This general methodology was mainly applied on validated and structured information that is bibliographic information. We propose to test the robustness of Swanson's theory by setting out the methods inspired by this theory. These methods led to the same conclusions as Don Swanson's ones. Then we explain how we developed a knowledge discovery system based on the literature available from public biomedical information sources
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Chazara, Philippe. "Outils d'élaboration de stratégie de recyclage basée sur la gestion des connaissances : application au domaine du génie des procédés". Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0141/document.

Texto completo
Resumen
Dans ce travail, une étude est réalisée sur le développement d'une méthodologie permettant la génération et l'évaluation de nouvelles trajectoires de valorisation pour des déchets. Ainsi, pour répondre à cette problématique, trois sous problèmes ont été identifiés. Le premier concerne un cadre de modélisation permettant la représentation structurée et homogène de chaque trajectoire, ainsi que les indicateurs choisis pour l'évaluation de ces dernières, permettant une sélection ultérieure. Le deuxième se concentre sur le développement d'une méthodologie puis la réalisation d'un outil permettant la génération de nouvelles trajectoires en s'appuyant sur d'autres connues. Enfin, le dernier sous problème concerne le développement d'un second outil développé pour modéliser et estimer les trajectoires générées. La partie de création d'un cadre de modélisation cherche à concevoir des structures globales qui permettent la catégorisation des opérations unitaires sous plusieurs niveaux. Trois niveaux de décomposition ont été identifiés. La Configuration générique de plus haut niveau, qui décrit la trajectoire sous de grandes étapes de modélisation. Le second niveau, Traitement générique propose des ensembles de structures génériques de traitement qui apparaissent régulièrement dans les trajectoires de valorisation. Enfin, le plus bas niveau se focalise sur la modélisation des opérations unitaires. Un second cadre a été créé, plus conceptuel et comportant deux éléments : les blocs et les systèmes. Ces cadres sont ensuite accompagnés par un ensemble d'indicateurs choisis à cet effet. Dans une volonté d'approche de développement durable, un indicateur est sélectionné pour chacune de des composantes : économique, environnemental et social. Dans notre étude, l'impact social se limite à l'estimation du nombre d'emplois créés. Afin de calculer cet indicateur, une nouvelle approche se basant sur les résultats économiques d'une entreprise a été proposée et validée.L'outil de génération de nouvelles trajectoires s'appuie sur l'utilisation de la connaissance en utilisant un système de raisonnement à partir de cas (RàPC). Pour être adapté à notre problématique, la mise en œuvre de ce dernier a impliqué la levée de plusieurs points délicats. Tout d'abord, la structuration des données et plus largement la génération de cas sources sont réalisées par un système basé sur des réseaux sémantiques et l'utilisation de mécanismes d'inférences. Le développement d'une nouvelle méthode de mesure de similarité est réalisé en introduisant la notion de définition commune qui permet de lier les états, qui sont des descriptions de situations, à des états représentant des définitions générales d'un ensemble d'états. Ces définitions communes permettent la création d'ensembles d'états sous différents niveaux d'abstraction et de conceptualisation. Enfin, un processus de décompositions des trajectoires est réalisé afin de résoudre un problème grâce à la résolution de ses sous-problèmes associés. Cette décomposition facilite l'adaptation des trajectoires et l'estimation des résultats des transformations. Basé sur cette méthode, un outil a été développé en programmation logique, sous Prolog. La modélisation et l'évaluation des voies de valorisation se fait grâce à la création d'outil spécifique. Cet outil utilise la méta-programmation permettant la réalisation dynamique de modèle de structure. Le comportement de ces structures est régi par la définition de contraintes sur les différents flux circulants dans l'ensemble de la trajectoire. Lors de la modélisation de la trajectoire, ces contraintes sont converties par un parser permettant la réalisation d'un modèle de programmation par contraintes cohérent. Ce dernier peut ensuite être résolu grâce à des solveurs via une interface développée et intégrée au système. De même, plusieurs greffons ont été réalisés pour analyser et évaluer les trajectoires à l'aide des critères retenus
In this work, a study is realised about the creation of a new methodology allowing the generation and the assessment of new waste recovery processes. Three elements are proposed for that. The first one is the creation of a modelling framework permitting a structured and homogeneous representation of each recovery process and the criteria used to asses them. The second one is a system and a tool generating new recovery processes from others known. Finally, the last element is another tool to model, to estimate and to asses the generated processes. The creation of a modelling framework tries to create some categories of elements allowing the structuring of unit operations under different levels of description. Three levels have been identified. In the higher level, the Generic operation which describes global structure of operations. The second one is Generic treatment which is an intermediate level between the two others. It proposes here too categories of operations but more detailed than the higher level. The last one is the Unit operation. A second framework has been created. It is more conceptual and it has two components : blocs and systems. These frameworks are used with a set of selected indicators. In a desire of integrating our work in a sustainable development approach, an indicator has been chosen for each of its components: economical, environmental and social. In our study, the social impact is limited to the number of created jobs. To estimate this indicator, we proposed a new method based on economical values of a company. The tool for the generation of new waste recovery processes used the methodology of case-based reasoning CBR which is based on the knowledge management. Some difficult points are treated here to adapt the CBR to our problem. The structuring of knowledge and generally the source case generation is realised by a system based on connections between data and the use of inference mechanisms. The development of a new method for the similarity measure is designed with the introduction of common definition concept which allows linking states, simply put description of objects, to other states under different levels of conceptualizations and abstractions. This point permits creating many levels of description. Finally, recovery process is decomposed from a main problem to some sub-problems. This decomposition is a part of the adaptation mechanism of the selected source case. The realisation of this system is under logic programming with Prolog. This last one permits the use of rules allowing inferences and the backtracking system allowing the exploration to the different possible solution. The modelling and assessment of recovery processes are done by a tool programmed in Python. It uses the meta-programming to dynamically create model of operations or systems. Constraint rules define the behaviour of these models allowing controlling the flux circulating in each one. In the evaluation step, a parser is used to convert theses rules into a homogeneous system of constraint programming. This system can be solved by the use of solvers with an interface developed for that and added to the tool. Therefore, it is possible for the user to add solvers but also to add plug-ins. This plug-ins can make the assessment of the activity allowing to have different kinds of evaluation for the same criteria. Three plug-ins are developed, one for each selected criterion. These two methods are tested to permit the evaluation of the proposed model and to check the behaviour of them and their limits . For these tests, a case-base on waste has been created Finally, for the modelling and assessment tool, a study case about the recovery process of used tyres in new raw material is done
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Kexel, Christoph. "La production et la gestion des connaissances dans le marketing des moteurs de recherche : une approche basée sur l'apprentissage par l'action". Nice, 2012. http://www.theses.fr/2012NICE0034.

Texto completo
Resumen
Depuis la fin des années 1980 le développement d’Internet a permis aux consommateurs de choisir parmi un très large éventail de produits et de fournisseurs et d’acheter de manière plus efficiente et flexible (Chaffey et al, 2006). Dans le marketing en ligne le consommateur potentiel ouvre un canal de communication vers le marketeur en cherchant de l’information sur les moteurs de recherche (Chaffey et al, 2006; Bogner, 2006), donc « être trouvé » représente le facteur crucial de succès pour les organisations contemporaines. Aujourd’hui, les entreprises modernes sont étonnamment réticentes à apprécier l’importance critique du marketing en ligne (Schubring, 2008). Cette dissertation a pour intention de créer une méthodologie pour améliorer les connaissances sur et les capacités de marketing en ligne des marketeurs. Tout d’abord, la thèse développe un model basé sur l’apprentissage par l’action pour transmettre les concepts de base nécessaires aux professionnels du marketing. Cette méthodologie est ensuite appliquée et évaluée dans un environnement contrôlé d’enseignement supérieur en transmettant l’expertise à un groupe de contrôle par la méthode traditionnelle. L’analyse de l’efficacité des différentes méthodes de transfert des connaissances est fournie pour identifier l’approche optimale d’apprentissage. Les données ainsi collectées sur l’amélioration possible des connaissances démontrent que le cadre développé dans la thèse produit des résultats optimaux dans toutes les sous-catégories du marketing par Internet. La thèse conclut que la méthodologie est capable de transmettre le savoir faire indispensable pour que les marketeurs puissent maitriser et utiliser le Web malgré ses extravagances. Ces résultats sont une avancée dans la pratique de la gestion en offrant une possibilité de formation efficace sur le lieu de travail pour la fonction organisationnelle du marketing en ligne. Dans un contexte plus général, ceci pourrait faciliter les modèles de formation corporative
Since the late 1980s the development of the Internet has empowered customers to choose from an extensive range of products and suppliers and to make purchases more efficient and flexible (Chaffey et al, 2006). In online marketing the potential customer opens a communication channel to the marketer by seeking information with search engines ((Chaffey et al, 2006), (Bogner, 2006)), so that ‘being found’ represents the crucial success factor for today’s organizations. However, modern firms are surprisingly sluggish in appreciating the critical importance of online marketing (Schubring, 2008). This dissertation aims to design a methodology for improvement of marketers’ knowledge and online marketing skills. The dissertation initially develops an action learning based model for conveying the basic concepts necessary for marketing practitioners. This methodology is then applied and evaluated in a controlled higher education environment by also conveying the expertise to a control group in a traditional form. An analysis of the efficacy of the different knowledge-transfer methods is provided in order to identify the optimal learning approach. The data collected on assumed knowledge improvements illustrate that optimal results have indeed been obtained in all subcategories of Internet marketing by the proposed framework. The dissertation concludes that the methodology is indeed able to instill the compulsory know-how in order that practitioners may cope with and make use of the World Wide Web – despite its vagaries. The findings advance business practice by providing a possibility of effective on-the-job training for the key organizational function of online marketing. This may facilitate corporate learning models in a more general context
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Darwich, Akoum Hind. "Approche organisationnelle basée sur le paradigme agent pour la synthèse et la réutilisation des connaissances en ingénierie collaborative". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0224/document.

Texto completo
Resumen
Il est bien connu qu’une nouvelle étude, menée au sein d’une entreprise, est souvent semblable à une étude précédente et par conséquent, peut être structurée selon un processus de référence commun au type d’étude correspondant. Dans notre travail, nous l’avons appelé démarche métier. Il s’agit d’une bonne pratique de réalisation d’un type d’études. La difficulté majeure réside dans la formalisation de cette démarche métier. Les approches traditionnelles de capitalisation des connaissances s’appuyant sur des verbalisations d’experts ont montré leur limite. Souvent réalisées en dehors de l’activité réelle, les experts omettent des détails qui peuvent être d’importance. Notre thèse repose sur l’idée qu’il est possible de construire le processus opérationnel mis en œuvre lors des activités collaboratives de conception, à partir des traces enregistrées lors de l’utilisation de l’outil numérique par les acteurs métier. Le processus opérationnel ainsi construit pourra aider les acteurs métiers et les experts à prendre du recul sur le travail réel et à formaliser et enrichir les démarches métier de l’entreprise. Notre travail s’est déroulé au sein du laboratoire ERPI (Équipe de Recherche sur les Processus Innovatifs) de l’Université de Lorraine et en collaboration avec la société TDC Software dans le cadre d’une thèse CIFRE. Les contributions que nous proposons sont les suivantes : • Un double cycle de capitalisation pour des activités instrumentées,• Une approche globale de gestion des démarches métier,• Une ontologie OntoProcess modélisant des aspects organisationnels génériques (séparant clairement des concepts liés aux traces et d’autres liés aux démarches métier) et des extensions métiers spécifiques à l’outil utilisé,• Un système multi-agents supportant l’approche globale de gestion des démarches métiers et s’appuyant sur l’ontologie OntoProcess,• Un système à base de traces permettant de construire un processus opérationnel à partir des traces enregistrées lors d’une étude
It is well known in the enterprises that each new projectto be carried out is usually similar to a certain previous projects. Those projects can be structured according to a common reference process depending on their type. In the dissertation, we call this reference process of the enterprise’s good practices the “expertise business process”. The main difficulty lies in the formalization of the expertise business process. The traditional knowledge capitalization approaches based on the experts’ debriefings showed their limits: the experts often leave out details which may be of relevance because the debriefings are habitually realizedexternally to the activities. Our thesis relies on the idea that it is possible to construct the operational process, implemented during the collaborative activities in a product development study, from the traces recorded by the used IT tools. The constructed operational process allows the business actors and experts to step back on their work and formalize the new deducted experience to enhance the expertise business processes of the firm. Our work had taken place in the ERPI (Equipe de Recherche sur les Processus Innovatifs) laboratory of the “Université de Lorraine” under a partnership with TDC Software society and through a CIFRE Convention. This dissertation offers five key contributions: • A double cycle to capitalize over the instrumented activities. • A global approach for the management of expertise business processes. • An ontology “OntoProcess” to conceive the generic organizational aspects, separating distinctly the concepts related to traces from those related to the business process, and providing extensions in function of the used tools. • A multi-agents system based on the ontology “OntoProcess” to support the presented global approach of the expertise business processes management. • A trace based system that allows the construction of the operational process from the traces registered over the study
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Dellal, Ibrahim. "Gestion et exploitation de larges bases de connaissances en présence de données incomplètes et incertaines". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2019. http://www.theses.fr/2019ESMA0016/document.

Texto completo
Resumen
Avec l’émergence et la prolifération des applications du Web sémantique, de nombreuses et récentes larges bases de connaissances (BC) sont disponibles sur le Web. Ces BC contiennent des entités (nommées) et des faits sur ces entités. Elles contiennent également les classes sémantiques de ces entités et leurs liens mutuels.De plus, plusieurs BC peuvent être interconnectées au niveau entités, formant ainsi le noyau du Web des données liées (ou ouvertes). Une caractérisation essentielle de ces BC est qu’elles contiennent des millions à des billions de triplets RDF incertains. Les causes de cette incertitude sont diverses et multiples. Elle peut résulter de l’intégration de sources de données de différents niveaux de fiabilité ou elle peut être causée par des considérations de préservation de la confidentialité. Aussi, elle peut être due à des facteurs li´es au manque d’informations, à la limitation des équipements de mesures ou à l’évolution d’informations. L’objectif de ce travail de thèse est d’améliorer l’ergonomie et la convivialité des systèmes modernes visant à exploiter des BC entachées d’incertitude. En particulier, ce travail propose des techniques coopératives et intelligentes aidant l’utilisateur dans ses prises de décisions quand ses recherches retournent des résultats insatisfaisants en termes de quantité ou de fiabilité.Dans un premier temps, nous nous sommes intéressés au problème des requêtes RDF retournant un ensemble vide de réponses. Ce type de réponse est frustrant et ne sert pas les attentes de l’utilisateur. L’approche proposée pour le traitement de ce problème est guidée par la requête initiale et offre un double avantage :(i) elle permet de fournir une explication sur l’échec de la requête en identifiant les MFS (Minimal Failing Sub-queries) et, (ii) elle permet de calculer des requêtes alternatives appelées XSS (maXimal Succeeding Subqueries),sémantiquement proches de la requête initiale et dont les réponses sont non-vides. Par ailleurs, d’un point de vue utilisateur, cette solution présente un niveau élevé de flexibilité dans le sens o`u plusieurs degrés d‘incertitude peuvent être simultanément considérés. Dans une seconde contribution, nous avons abord´e l’étude du problème dual au problème cité ci-dessus,c’est-`a-dire le cas des requêtes retournant un nombre trop élevé de réponses dans le contexte des données RDF.La solution préconisée vise `a réduire cet ensemble de réponses pour permettre à l’utilisateur de les examiner.Des contreparties des MFS et des XSS ont été établies, ce qui a permis d’identifier, d’une part, les causes du problème et, d’autre part, des requêtes alternatives dont les résultats peuvent être directement et facilement exploitables à des fins de décision.L’ensemble de nos propositions ont été validées par une série d’expérimentations portant sur différentes larges bases de connaissances en présence d’incertitude (WatDiv et LUBM). Nous avons aussi utilisé plusieurs Triplestores pour mener nos tests
In the era of digitilization, and with the emergence of several semantic Web applications, many new knowledge bases (KBs) are available on the Web. These KBs contain (named) entities and facts about these entities. They also contain the semantic classes of these entities and their mutual links. In addition, multiple KBs could be interconnected by their entities, forming the core of the linked data web. A distinctive feature of these KBs is that they contain millions to trillions of unreliable RDF triples. This uncertainty has multiple causes. It can result from the integration of data sources with various levels of intrinsic reliability or it can be caused by some considerations to preserve confidentiality. Furthermore, it may be due to factors related to the lack of information, the limits of measuring equipment or the evolution of information. The goal of this thesis is to improve the usability of modern systems aiming at exploiting uncertain KBs. In particular, this work proposes cooperative and intelligent techniques that could help the user in his decision-making when his query returns unsatisfactory results in terms of quantity or reliability. First, we address the problem of failing RDF queries (i.e., queries that result in an empty set of responses).This type of response is frustrating and does not meet the user’s expectations. The approach proposed to handle this problem is query-driven and offers a two fold advantage: (i) it provides the user with a rich explanation of the failure of his query by identifying the MFS (Minimal Failing Sub-queries) and (ii) it allows the computation of alternative queries called XSS (maXimal Succeeding Sub-queries), semantically close to the initial query, with non-empty answers. Moreover, from a user’s point of view, this solution offers a high level of flexibility given that several degrees of uncertainty can be simultaneously considered.In the second contribution, we study the dual problem to the above problem (i.e., queries whose execution results in a very large set of responses). Our solution aims at reducing this set of responses to enable their analysis by the user. Counterparts of MFS and XSS have been defined. They allow the identification, on the one hand, of the causes of the problem and, on the other hand, of alternative queries whose results are of reasonable size and therefore can be directly and easily used in the decision making process.All our propositions have been validated with a set of experiments on different uncertain and large-scale knowledge bases (WatDiv and LUBM). We have also used several Triplestores to conduct our tests
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Jemaa, Adel. "Processus d’absorption, Innovation & Productivité : Analyse empirique sur données d’entreprises". Caen, 2014. http://www.theses.fr/2014CAEN0504.

Texto completo
Resumen
La thèse traite de la conceptualisation et de l’évaluation de la capacité des entreprises à absorber les connaissances externes. Elle traite également de l’impact de cette capacité sur l’innovation et la productivité des entreprises. La première contribution de cette thèse est de modéliser la capacité d’absorption comme un processus intégré dans le processus d’innovation de l’entreprise. Ce processus d’absorption est défini et modélisé d’une manière originale par un réseau d’interactions entre différentes activités ou capacités : la capacité d’absorption interne, la capacité d’accès aux connaissances externes et la capacité de coopérer. La seconde contribution est de traiter analytiquement cette question en intégrant simultanément la capacité d’absorption et la distance cognitive dans le cadre d’une fonction d’innovation. Ce modèle permet de distinguer entre une capacité d’absorption théorique et une capacité d’absorption effective qui tient compte de la distance cognitive. La troisième contribution consiste dans un premier temps, d’une part, à mesurer l’intensité de ces différentes capacités et, d’autre part, à estimer les relations de causalité entre celles-ci. C'est-à-dire, la capacité d’absorption interne déterminerait la capacité d’accès aux connaissances externes et cette dernière déterminerait la capacité de coopérer. Dans un deuxième temps, la thèse s’intéresse à l’influence de l’intensité de la coopération sur les performances de l’entreprise (output de l’innovation, productivité du travail, productivité globale des facteurs). Enfin, la thèse aborde la question de l’impact des performances de l’entreprise sur sa capacité d’absorption interne
The thesis deals with the conceptualization and assessment of the ability of firms to absorb external knowledge. It also discusses the impact of this capability on innovation and productivity. The first contribution of this thesis consists in modeling the absorption capacity as an integrated process in the innovation of the company processes. This process of absorption is defined and modeled in an original way through a network of interactions between different activities or capacities: the capacity for internal absorption, the access to external knowledge and the ability to cooperate capacity. The second contribution is to analytically treat the issue by integrating the absorption capacity and the cognitive distance through an innovation function simultaneously. This model allows to distinguish between a theoretical absorption capacity and an effective absorption capacity that takes into account the cognitive distance. The third contribution initially consists, on one hand, in measuring the intensity of these different capabilities and, on the other hand, in estimating the causal relationships between them. That is to say, the ability to determine the internal absorption ability to access external knowledge, which in turn, would determine the ability to cooperate. Secondly, the thesis focuses on the influence of the intensity of cooperation on business performance (output of innovation, labor productivity, TFP). Finally, the thesis discusses the impact of the performance of the company on its internal capacity for absorption
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Texto completo
Resumen
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Tawbi, Chawki. "Adactif : extension d'un SGBD à l'activité par une approche procédurale basée sur les rendez-vous". Toulouse 3, 1996. http://www.theses.fr/1996TOU30262.

Texto completo
Resumen
L'activite dans les sgbd est mise en uvre grace aux regles evenement-condition-action (eca) qui servent a specifier le comportement actif du systeme et sa reaction vis a vis des situations rencontrees dans la bd et dans son environnement. L'evenement specifie le moment du declenchement de la regle, la condition verifie si l'etat de la bd necessite l'execution de l'action qui a son tour execute des operations en reponse a l'evenement. Ces operations peuvent servir a annuler la cause de l'evenement ou a executer ses consequences. Dans les travaux effectues durant la these, nous nous sommes interesses a un langage dote de mecanismes temps-reel afin de s'en inspirer pour etendre un sgbd passif a l'activite. Nous nous sommes inspires des taches ada et de leur mecanisme de synchronisation (les rendez-vous) pour implanter les regles dans notre sgbd actif baptise adactif. Les regles dans adactif sont considerees comme des taches actives attendant un rendez-vous du systeme en l'occurence de l'evenement declenchant. Chaque tache a en charge la verification d'une condition et, si elle est satisfaite, l'execution de l'action associee decrite de facon procedurale. Les taches dans adactif ont ete realisees a l'aide des processus unix et evoluent en parallele. La synchronisation dans le systeme, quant a elle, est mise en uvre a l'aide des pipe-line unix. D'autre part, comme les evenements composes (formes d'une combinaison d'evenements) jouent un role important dans les sgbd actifs, nous proposons un mecanisme de detection de ce type d'evenements base lui aussi sur le principe de tache et de rendez-vous. Ainsi, un evenement compose est detecte par une regle en attente de rendez-vous avec les evenements composants. Lorsque ces derniers sont au rendez-vous, et apres que la composition ait ete realisee, cette regle signale l'evenement compose au systeme. Cette approche permettra a l'utilisateur de specifier ses propres operateurs de composition conformement a la semantique de son application
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Eude, Thibaut. "Forage des données et formalisation des connaissances sur un accident : Le cas Deepwater Horizon". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM079/document.

Texto completo
Resumen
Le forage de données, méthode et moyens développés dans cette thèse, redéfinit le processus d’extraction de données, de la formalisation de la connaissance et de son enrichissement notamment dans le cadre de l’élucidation d’évènements qui n’ont pas ou peu été documentés. L’accident de la plateforme de forage Deepwater Horizon, opérée pour le compte de BP dans le Golfe du Mexique et victime d’un blowout le 20 avril 2010, sera notre étude de cas pour la mise en place de notre preuve de concept de forage de données. Cet accident est le résultat d’un décalage inédit entre l’état de l’art des heuristiques des ingénieurs de forage et celui des ingénieurs antipollution. La perte de contrôle du puits MC 252-1 est donc une faillite d’ingénierie et il faudra quatre-vingt-sept jours à l’équipe d’intervention pour reprendre le contrôle du puits devenu sauvage et stopper ainsi la pollution. Deepwater Horizon est en ce sens un cas d’ingénierie en situation extrême, tel que défini par Guarnieri et Travadel.Nous proposons d’abord de revenir sur le concept général d’accident au moyen d’une analyse linguistique poussée présentant les espaces sémantiques dans lesquels se situe l’accident. Cela permet d’enrichir son « noyau de sens » et l’élargissement de l’acception commune de sa définition.Puis, nous amenons que la revue de littérature doit être systématiquement appuyée par une assistance algorithmique pour traiter les données compte tenu du volume disponible, de l’hétérogénéité des sources et des impératifs d’exigences de qualité et de pertinence. En effet, plus de huit cent articles scientifiques mentionnant cet accident ont été publiés à ce jour et une vingtaine de rapports d’enquêtes, constituant notre matériau de recherche, ont été produits. Notre méthode montre les limites des modèles d’accidents face à un cas comme Deepwater Horizon et l’impérieuse nécessité de rechercher un moyen de formalisation adéquat de la connaissance.De ce constat, l’utilisation des ontologies de haut niveau doit être encouragée. L’ontologie DOLCE a montré son grand intérêt dans la formalisation des connaissances à propos de cet accident et a permis notamment d’élucider très précisément une prise de décision à un moment critique de l’intervention. La population, la création d’instances, est le coeur de l’exploitation de l’ontologie et son principal intérêt mais le processus est encore très largement manuel et non exempts d’erreurs. Cette thèse propose une réponse partielle à ce problème par un algorithme NER original de population automatique d’une ontologie.Enfin, l’étude des accidents n’échappe pas à la détermination des causes et à la réflexion sur les « faits socialement construits ». Cette thèse propose les plans originaux d’un « pipeline sémantique » construit à l’aide d’une série d’algorithmes qui permet d’extraire la causalité exprimée dans un document et de produire un graphe représentant ainsi le « cheminement causal » sous-jacent au document. On comprend l’intérêt pour la recherche scientifique ou industrielle de la mise en lumière ainsi créée du raisonnement afférent de l’équipe d’enquête. Pour cela, ces travaux exploitent les avancées en Machine Learning et Question Answering et en particulier les outils Natural Language Processing.Cette thèse est un travail d’assembleur, d’architecte, qui amène à la fois un regard premier sur le cas Deepwater Horizon et propose le forage des données, une méthode et des moyens originaux pour aborder un évènement, afin de faire émerger du matériau de recherche des réponses à des questionnements qui échappaient jusqu’alors à la compréhension
Data drilling, the method and means developed in this thesis, redefines the process of data extraction, the formalization of knowledge and its enrichment, particularly in the context of the elucidation of events that have not or only slightly been documented. The Deepwater Horizon disaster, the drilling platform operated for BP in the Gulf of Mexico that suffered a blowout on April 20, 2010, will be our case study for the implementation of our proof of concept for data drilling. This accident is the result of an unprecedented discrepancy between the state of the art of drilling engineers' heuristics and that of pollution response engineers. The loss of control of the MC 252-1 well is therefore an engineering failure and it will take the response party eighty-seven days to regain control of the wild well and halt the pollution. Deepwater Horizon is in this sense a case of engineering facing extreme situation, as defined by Guarnieri and Travadel.First, we propose to return to the overall concept of accident by means of an in-depth linguistic analysis presenting the semantic spaces in which the accident takes place. This makes it possible to enrich its "core meaning" and broaden the shared acceptance of its definition.Then, we bring that the literature review must be systematically supported by algorithmic assistance to process the data taking into account the available volume, the heterogeneity of the sources and the requirements of quality and relevance standards. In fact, more than eight hundred scientific articles mentioning this accident have been published to date and some twenty investigation reports, constituting our research material, have been produced. Our method demonstrates the limitations of accident models when dealing with a case like Deepwater Horizon and the urgent need to look for an appropriate way to formalize knowledge.As a result, the use of upper-level ontologies should be encouraged. The DOLCE ontology has shown its great interest in formalizing knowledge about this accident and especially in elucidating very accurately a decision-making process at a critical moment of the intervention. The population, the creation of instances, is the heart of the exploitation of ontology and its main interest, but the process is still largely manual and not without mistakes. This thesis proposes a partial answer to this problem by an original NER algorithm for the automatic population of an ontology.Finally, the study of accidents involves determining the causes and examining "socially constructed facts". This thesis presents the original plans of a "semantic pipeline" built with a series of algorithms that extract the expressed causality in a document and produce a graph that represents the "causal path" underlying the document. It is significant for scientific or industrial research to highlight the reasoning behind the findings of the investigation team. To do this, this work leverages developments in Machine Learning and Question Answering and especially the Natural Language Processing tools.As a conclusion, this thesis is a work of a fitter, an architect, which offers both a prime insight into the Deepwater Horizon case and proposes the data drilling, an original method and means to address an event, in order to uncover answers from the research material for questions that had previously escaped understanding
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Zouikri, Messaoud. "Stratégies de R et D et innovation dans l’industrie pharmaceutique en France : une étude économétrique sur données individuelles". Paris 9, 2008. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2008PA090071.

Texto completo
Resumen
La thèse élabore une méthodologie empirique pour étudier le lien entre les modes de production des connaissances et l’innovation, basée sur la décomposition des activités de RD par domaine d’application (recherche fondamentale, recherche appliquée et développement) et par stratégie d’organisation (recherche interne, recherche externe). Pour ce faire, elle utilise des données de RD et d’innovation au niveau de la firme pour estimer, à travers la mise au point de modèles économétriques appropriés, d’une part, le lien entre taille de la firme et modes de RD et d’autre part, la relation entre les stratégies de RD et l’innovation, dans l’industrie pharmaceutique en France. Les résultats obtenus montrent que les composantes de RD augmentent moins que proportionnellement et non linéairement avec la taille. Les entreprises de taille petite et moyenne ne sont pas significativement différentes des grandes firmes dans la production des innovations originales. Les modes de RD contribuent à l’innovation de façon complémentaire
The thesis puts forth an empirical methodology to study the link between modes of knowledge production and innovation, based on a functional (basic research, applied research and development) and organisational (internal research, external research) analysis of RD activities. To do so, it uses survey data on RD and innovation at the firm level in order to estimate through appropriate econometric models both the link between firm size and RD modes, and the relationship between RD strategies and innovation in the pharmaceutical industry in France. The main results show that the RD components increase non-linearly and less than proportionally with the size of the firm. Moreover, small and medium-sized firms are not significantly different from big firms in the production of original innovations. The different RD modes contribute to innovation in complementary ways
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Razmerita, Liana. "Modèle utilisateur et modélisation utilisateur dans les systèmes de gestion des connaissances : une approche fondée sur les ontologies". Toulouse 3, 2003. http://www.theses.fr/2003TOU30179.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Jlassi, Aymen. "Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop". Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4042.

Texto completo
Resumen
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution
"Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Reeveerakul, Napaporn. "Un système d’aide à la décision pour la réorganisation des chaînes logistiques : une approche basée sur une analyse multicritère et un système de gestion des connaissances". Thesis, Lyon 2, 2011. http://www.theses.fr/2011LYO20007/document.

Texto completo
Resumen
La tendance actuelle des pays développés à s’investir à l'étranger dans le secteur de fabrication a rapidement impacté la croissance économique des pays d'accueil. De tels investissements impliquent notamment la création de nouveaux emplois, l'augmentation de l'utilisation des réseaux de distribution multinationales, ou encore les investissements dans la recherche et le développement afin de soutenir de nombreux projets nationaux. Ces impacts contribuent à l’amélioration de la productivité totale grâce à l’augmentation du capitale. De plus, plusieurs pays développés sont reconnus pour attirer les entreprises qui cherchent à s’investir à l’étranger afin de tirer profit des avantages offerts par les pays d’accueil. Toutefois, ces entreprises font face à de nombreux défis critiques liés aux turbulences économiques, à l'augmentation du coût du travail, une chaîne d'approvisionnement et des infrastructures inefficaces. De telles crises génèrent beaucoup de problèmes entrainant une perte de bénéfices aux Investisseurs Directs Etrangers (IDE) et une augmentation des coûts d'exploitation. Les investisseurs étrangers deviennent alors réticents à investir ou à étendre leurs métiers. Bien que plusieurs approches à prendre en considération pour les prises de décision sont connus pour ces investisseurs ; la délocalisation vers de meilleurs marchés dans des pays où la main d’œuvre est beaucoup moins chère ; ou encore d'arrêter l'exploitation, représentent la stratégie souvent mise en place. Toutefois, une telle situation n’aura pas uniquement un impact sur l’organisation interne, mais aussi la situation économique locale et mondiale, entrainant ainsi des problèmes sociaux dans la région. Ainsi, pour soutenir le fonctionnement des affaires et attirer de nouveaux IDE, ce travail de recherche vise à aider les fabricants à comprendre la situation actuelle, et à prendre les bonnes décisions en leur fournissant un ensemble d’outils pour valider leurs décisions d'investissement futures. En outre, fournir des informations utiles sur les IDE contribue également à attirer de nouveaux investisseurs. Ainsi, dans ce travail de recherche nous nous focalisons sur la problématique suivante :1 Quels sont les facteurs potentiels utilisés pour une aide à la prise de décision dédiée aux IDE faisant face à leurs crises économiques ? 2 Comment cette étude peut aider les fabricants à prendre les bonnes décisions dans leurs situations de crises ? 3 En vue de prendre une décision de délocalisation, de transfert ou de cession d’usines de fabrication, quels sont les facteurs spécifiques qui devraient être pris en considération? 4 Comment les organisations représentantes et le gouvernement peuvent aider à prévenir les crises générées par l’offshore ou la fermeture des usines de fabrication? Afin de répondre à la problématique, nous proposons un cadre intégré qui repose sur trois bases principales: La chaîne d'approvisionnement et l'infrastructure, les compétences des travailleurs et les performances, et la situation financière des différentes parties prenantes. Ces dernières sont représentées par des investisseurs étrangers, des intervenants locaux, et des fabricants. Cependant, les stratégies à analyser dans notre contexte de recherche peuvent être classées en analyse statique et dynamique. En termes d'analyse statique, la matrice de risques pour la prise de décision représentée comme un système de base de connaissances utilisé pour évaluer l'occurrence des risques existants dans les entreprises. Cette analyse permet également aux investisseurs ou aux fabricants d'évaluer les risques connexes à l’égard des entreprises existantes. En ce qui concerne l'analyse dynamique, la modélisation de la simulation des chaînes d'approvisionnement est construite en fonction du modèle SCOR (Supply Chain Operations Reference)
Since The investment of foreign manufacturing in developing countries result rapidly increasingly on economic growth to the host countries. Such contributions are creating new jobs by foreign companies, increasing the use of multinational distribution networks, or even spending on research and development to support many national projects. These have led to higher productivity through increased capital, which in turn has led to high living standards. Consequently, several developing countries are recognized to attracting foreign investors to invest their manufacturing business that they can gain benefits from them. However, they face many critical challenges linked to the economic turbulence, from the increasing of labor cost, ineffective supply chain and infrastructure. The crisis was raised many problems that give Foreign Direct Investments (FDIs) loss profits and increase operational costs. Then new and existing foreign investors are reluctant to invest or expand the businesses. While several approaches to be considered on making a decision are noticed for foreign investors. The relocation to cheaper laboring countries or shutting down operation is the possible strategy to be considered for them. However, these situations will not only impact internal organization but also the local and global economic situation. Since the crises can affect people’s income, as well raise economic problems, they finally lead to social problems in the area.Thus, to sustain the business operation and attract the new comers of FDIs, this research aims to help manufacturers understand the existing crises in their business situation, and then make the right decision by providing them with a tool to validate their future investment decision. Furthermore, providing useful information on FDIs’ investment also contributes to attracting new investors. Thus we will focus on the problematic as follows. 1 What are the potential factors used for a decision making while the FDIs is faced up with crises? 2 How can the study help manufacturers make the right decision in their manufacturing crises?3 In order to make a decision on relocating, transferring or divesting plants, are the specific factors that should be considered?4 How can the relevant organizations and the government help to prevent the crises generated by offshore or plant divestment?To answer on the problematic, our research proposes an integrated framework which is based on three main requirements: The supply chain and infrastructure, workers skills and performance, as well as the financial situation associated with the relevant stakeholders. Those three stakeholders are foreign investor, local industrial estate stakeholders, and manufacturers. However, the strategies to be analyzed in our research framework can be categorized into static and dynamic analysis. In terms of static analysis, the risk matrix decision represented as the knowledge base system used to evaluate the occurrence of existing risks in businesses. This analysis also helps investors or manufacturers evaluate their related risks on existing businesses. Regarding dynamic analysis, the modeling of the supply chain simulation is constructed according to the Supply Chain Operations Reference (SCOR) model. Supply chain modeling and analysis on future cost of investment are represented in this context. Besides, our research also applies the metrics and attributes based on Supply Chain Operations Reference (SCOR) to measure the supply chain performance
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Leroy, Yann. "Développement d'une méthodologie de fiabilisation des prises de décisions environnementales dans le cadre d'analyses de cycle de vie basée sur l'analyse et la gestion des incertitudes sur les données d'inventaires". Phd thesis, Paris, ENSAM, 2009. http://pastel.archives-ouvertes.fr/pastel-00005830.

Texto completo
Resumen
L'Analyse de Cycle de Vie (ACV) est aujourd'hui définie comme une approche aboutie et reconnue d'évaluation de la performance environnementale des produits, procédés et services. Cependant et malgré la standardisation dont elle a fait l'objet dans les années 1990, certaines limites subsistent et contribuent à fragiliser la fiabilité de ses résultats. La non-prise en compte quasi systématique des incertitudes et de la qualité des données d'inventaire, et son caractère consommateur de ressources en font partie. Ces carences mettent en avant la nécessité de développer une méthodologie de gestion de ces deux paramètres. C'est dans ce contexte que s'inscrivent les travaux de recherche. Nous proposons donc une méthodologie de fiabilisation des décisions environnementales basées sur des ACV, à partir de l'analyse et la gestion des incertitudes sur les données d'inventaire. Cette dernière combine une approche qualitative s'appuyant sur l'utilisation d'une matrice de pedigree et une approche quantitative propageant l'incertitude sur les données d'entrée au moyen de simulations de Monte Carlo. La méthodologie développée nous permet d'une part d'estimer la qualité des inventaires et donc du résultat, et d'autre part d'identifier et de localiser les données les plus influentes sur cet indice de qualité. Cette analyse générée à partir d'informations relativement accessibles permet également une optimisation de la phase de collecte et des ressources allouées. Nous pouvons en effet juger de la pertinence d'une collecte additionnelle en intégrant le potentiel de dégradation d'une donnée sur le degré de fiabilité estimé du résultat. Les conclusions de notre recherche devraient contribuer à crédibiliser les résultats d'ACV et faciliter la mise en œuvre de telles analyses par la gestion raisonnée des efforts de collecte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Santorineos, Manthos. "Une approche sur la recherche et l’art à l’époque du numérique à travers l’étude des systèmes artificiels d’organisation de la mémoire humaine : nécessité et proposition d’un outil d’enregistrement et de synthèse des données susceptible de contribuer à la mise en place d’une nouvelle forme de doctorat ("doctorat_machine")". Paris 8, 2006. http://octaviana.fr/document/119090325#?c=0&m=0&s=0&cv=0.

Texto completo
Resumen
La société se trouve dans une situation hybride entre la civilisation du papier est celle de la technologie numérique, surtout en ce qui concerne l’enregistrement de la connaissance, mais la technologie numérique est actuellement utilisée pour l’amélioration des conditions et non pour leur évolution, et les vrais changements ne sont pas encore accomplis. Or les propriétés du nouveau système de traitement de la mémoire pourraient être exploitées en vue d’un changement de la manière de recherche et l’artiste-chercheur peut profiter d’une technologie qui se caractérise de la notion de « plateforme » et non plus de « media ». Dans ce cadre, il a été créé un système pour l’usage des capacités numériques de traitement de la connaissance pour affronter les problèmes de complexité de l’objet de recherche. Nous étudions ainsi l’hypothèse que ce système, le doctorat_machine, constitue la nouvelle forme de doctorat au niveau de l’enregistrement et de la présentation de la recherche
Society exists in a state of hybridicity in relation to memory storage, between a “paper” culture and the culture of digital technology, while in many contexts the results of this situation are not yet apparent, as digital technology is used for the enhancement of conditions and not for their development. Important role in the clarification of this situation will play a change in research method putting in good practice the capacities of the new system of memory processing. In the realm of digital art both conditions coexist yet the artist-researcher can bring into fruition the advantages of digital technology characterised by the notion of “platform” and not of “media” valid up to the electronic revolution. In the course of research, a system for the optimisation of digital capacities of knowledge processing was created so as to tackle complexities and problems inherent in the object of study. In the context of perspectives of digital culture, a hypothesis is being examined, this system, defined as doctorate_machine, to comprise the new thesis form with respect to research documentation and presentation
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Ben, Arfi Wissal. "Partage des connaissances : articulation entre management de l'innovation et management des connaissances : cas des plateformes d'innovation d'un groupe leader du secteur agroalimentaire en Tunisie". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENG016/document.

Texto completo
Resumen
La mondialisation, l'adaptation au besoin du consommateur, le lancement de nouveaux produits présentent des défis permanents et rendent l'innovation un axe stratégique pour réussir sur le marché. Ces exigences ont crée une demande croissante pour repenser le processus d'innovation et plus particulièrement la gestion des projets innovants à travers la mise en place de plateformes d'innovation. Cela revient à créer des équipes dédiées à l'innovation et dont les membres impliqués et disposant de connaissances transversales sont capables de les partager pour innover. Ce travail doctoral cherche à examiner et identifier le rôle du partage des connaissances entre les membres de plateformes d'innovation dans l'élaboration d'un processus d'innovation et répond par conséquentà la problématique : Comment le partage des connaissances au sein des plateformes d'innovation favorise t-il l'émergence des innovations ? En examinant le phénomène du partage des connaissances sous l'angle d'une articulation entre management de l'innovation et management des connaissances, cette recherche se base sur l'approche par les connaissances de la firme, où les pratiques cognitives et sociales jouent un rôle important pour l'innovation. A travers une recherche qualitative, trois études de cas ont été menées au sein des trois plateformes d'innovation d'un groupe leader du secteur agroalimentaire en Tunisie. Nous avons pu identifier les dispositifs organisationnels qui influencent les interactions entre les membres impliqués au sein des plateformes d'innovation. L'examen approfondi des pratiques de chacune des plateformes d'innovation étudiée nous a permis d'observer les phénomènes suivants.Bien que la mise en place des plateformes d'innovation s'inscrive dans une stratégie managériale centrée sur l'innovation et fait référence à un modèle de base, les pratiques de chaque plateforme d'innovation est spécifique. Au-delà du caractère transversal de leur structure, les plateformes d'innovation apparaissent comme une formule relativement souple que chaque entreprise du groupe s'approprie et adapte à son contexte et ses contraintes. Dans les trois cas étudiés, le partage des connaissances s'appréhende comme une approche organisationnelle et technologique ayant pour but la mise en commun et l'intégration des connaissances entre les membres d'une plateforme d'innovation pour innover. L'intérêt de cette approche n'est pas basé sur la connaissance en soi mais sur « Qui » la détient et « Comment » la partage au sein de la plateforme d'innovation. Finalement, deux éléments ont permis de mieux appréhender le partage des connaissances : le management stratégique et la culture d'entreprise. Les enseignements que l'on tire de l'étude de ces plateformes d'innovation étudiées, c'est quand il y a action délibérée pour instaurer une démarche d'innovation fondée sur le partage des connaissances, cette action devient une épisode critique de la vie de l'organisation dans la mesure où elle remet en jeu l'équilibre des pouvoirs, suscite l'enthousiasme de certains acteurs et la méfiance d'autres. Cette thèse, avec les trois plateformes d'innovation étudiées, ne touche pas qu'au niveau culturel des pratiques de partage des connaissances, mais touche aussi au niveau identitaire. La thèse défendue est la suivante : le partage des connaissances entre les membres des plateformes d'innovation impacte l'émergence des innovations au sein des entreprises étudiées. En termes de contribution managériale, nous considérons que le partage des connaissances au sein des plateformes d'innovation est un levier d'action stratégique pour les démarches d'innovation
The globalization, the adaptation to the consumer needs, the creation of new products represent permanent challenges to promote the market demand and make the innovation a strategic axis to approach. These requirements have enhanced an increasing necessity to rethink about the process of innovation and more particularly the management of the innovative projects through the implementation of innovation platforms. Team work is dedicated to the innovation where the involved members have transverse knowledge and are capable of sharing them to innovate.This doctoral approach tries to examine and to identify the role of the sharing knowledge between the members of innovation platforms in the elaboration of aninnovation process. It deals withthe following problematic: howthe sharing knowledgewithin the innovation platforms favour the emergence of innovations ? By examining the phenomenon of the knowledge sharing taking into consideration an articulation between innovation management and knowledge management,this research digs deep into the Knowledge-based View of the firm, where the cognitive and social practices play an important role for the innovation. Through a qualitative research, three case studies were led within three innovation platforms of a leader group for food industry sector in Tunisia. We were able to identify the organizational devices which influence the interactions between the members involved within the innovation platforms. The deep examination of the practices of each innovation platform allowed us to observe the following phenomena: although the implementation of the innovation platformsis linked to the managerial strategy based on innovation and makes a reference toa basic model, the practices of every platform of innovation is specific. Beyond the transverse quality of their structure, the innovation platforms appear as a relatively flexible formula that every enterprise of the groupcan appropriate and adapt it to its context and its constraints. In the three case studies, the knowledge sharing appears as an organizational and technological approach aiming at sharing and integrating the knowledge between the members of an innovation platform to innovate. The interest of this approach is not based on the knowledge in itself but on "Who" detains it and "How" it is shared within the innovation platform. Finally, two elements allowed to a better understandingof the knowledge sharing: the strategic management and the corporate culture. Our study on the innovation platforms shows that when there is a deliberate action to establish an initiativeof innovation based on the knowledge sharing, this action becomes crucialto the life of the organization as far as it can question its balance of power, arouses the enthusiasm of certain actors and the distrust of others. This thesis, with its three case studiesof innovation platforms, does not only ponder on the cultural level concerning the practices of knowledge sharing but also tacklesthe identity level. The praxis is the following one: the knowledge sharing between the members of the innovation platforms enhances the emergence of the innovations within the companies under study. In terms of the managerial contribution, we consider that the knowledge sharing within the innovation platforms represents anevolving strategic action for the innovation initiatives
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Toure, Carine. "Capitalisation pérenne de connaissances industrielles : Vers des méthodes de conception incrémentales et itératives centrées sur l’activité". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI095/document.

Texto completo
Resumen
Dans ce travail de recherche, nous nous intéressons à la question de la pérennité de l’usage des systèmes de gestion des connaissances (SGC) dans les entreprises. Les SGC sont ces environnements informatiques qui sont mis en place dans les entreprises pour mutualiser et construire l’expertise commune grâce aux collaborateurs. Le constat montre que, malgré la rigueur employée par les entreprises pour la mise en œuvre de ces SGC, le risque d’échec des initiatives de gestion des connaissances, notamment lié à l’acceptation de ces environnements par les utilisateurs professionnels ainsi qu’à leur usage continu et durable, reste d’actualité. La persistance et l’ampleur de ce constat dans les entreprises a motivé notre intérêt d’apporter une contribution à cette question générale de recherche. Comme propositions de réponse à cette problématique, nous avons donc 1) dégagé à partir de l’état de l’art, quatre facettes qui sont requises pour favoriser l’usage pérenne d’une plateforme gérant la connaissance ; 2) proposé un modèle théorique de régulation mixte qui unifie des outils de stimulation pour l’autorégulation et des outils soutenant l’accompagnement au changement et qui permet la mise en œuvre continue des différents facteurs stimulants l’usage pérenne des SGC ; 3) proposé une méthodologie de conception, adaptée à ce modèle et basée sur les concepts Agile, qui intègre une méthode d’évaluation mixte de la satisfaction et de l’usage effectif ainsi que des outils d’IHM pour l’exécution des différentes itérations de notre méthodologie ; 4) implémenté la méthodologie en contexte réel, à la Société du Canal de Provence, ce qui nous a permis de tester sa faisabilité et de proposer des ajustements/recommandations génériques aux concepteurs pour son application en contexte. L’outil résultant de notre implémentation a reçu un accueil positif par les utilisateurs en termes de satisfaction et d’usages
In this research, we are interested in the question of sustainability of the use of knowledge management systems (KMS) in companies. KMS are those IT environments that are set up in companies to share and build common expertise through collaborators. Findings show that, despite the rigor employed by companies in the implementation of these KMS, the risk of knowledge management initiatives being unsuccessful, particularly related to the acceptance and continuous use of these environments by users remains prevalent. The persistence of this fact in companies has motivated our interest to contribute to this general research question. As contributions to this problem, we have 1) identified from the state of the art, four facets that are required to promote the perennial use of a platform managing knowledge; 2) proposed a theoretical model of mixed regulation that unifies tools for self-regulation and tools to support change, and allows the continuous implementation of the various factors that stimulate the sustainable use of CMS; 3) proposed a design methodology, adapted to this model and based on the Agile concepts, which incorporates a mixed evaluation methodology of satisfaction and effective use as well as CHI tools for the completion of different iterations of our methodology; 4) implemented the methodology in real context at the Société du Canal de Provence, which allowed us to test its feasibility and propose generic adjustments / recommendations to designers for its application in context. The tool resulting from our implementation was positively received by the users in terms of satisfaction and usages
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Vosgien, Thomas. "Ingénierie systèmes basée sur les modèles appliquée à la gestion et l'intégration des données de conception et de simulation : application aux métiers d'intégration et de simulation de systèmes aéronautiques complexes". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0011/document.

Texto completo
Resumen
L’objectif de cette thèse est de contribuer au développement d’approches méthodologiques et d’outils informatiques pour développer les chaînes d’intégration numériques en entreprise étendue. Il s’agit notamment de mieux intégrer et d’optimiser les activités de conception, d’intégration et de simulation dans le contexte du développement collaboratif des produits/systèmes complexes.La maquette numérique (DMU) – supportée par un système de gestion de données techniques (SGDT ou PDM) – est devenue ces dernières années un environnement fédérateur clé pour échanger et partager une définition technique et une représentation 3D commune du produit entre concepteurs et partenaires. Cela permet aux concepteurs ainsi qu’aux utilisateurs en aval (ceux qui sont en charge des simulations numériques notamment) d’avoir un accès à la géométrie du produit virtuel assemblé. Alors que les simulations numériques 3D et 2D prennent une place de plus en plus importante dans le cycle de développement du produit, la DMU offre de nouvelles perspectives à ces utilisateurs pour récupérer et exploiter les données CAO appropriées et adaptées pour les analyses par éléments finis. Cela peut ainsi permettre d’accélérer le processus de préparation du modèle de simulation. Cependant, les environnements industriels de maquettes numériques sont actuellement limités dans leur exploitation par : - un manque de flexibilité en termes de contenu et de structure, - l’absence d’artefact numérique 3D permettant de décrire les interfaces des composants de l’assemblage, - un manque d’intégration avec les données et activités de simulation.Cette thèse met notamment l’accent sur les transformations à apporter aux DMU afin qu’elles puissent être utilisées comme données d’entrée directes pour les analyses par éléments finis d’assemblages volumineux (plusieurs milliers de pièces). Ces transformations doivent être en cohérence avec le contexte et les objectifs de simulation et cela nous a amené au concept de « vue produit » appliquée aux DMUs, ainsi qu’au concept de « maquette comportementale » (BMU). Une « vue produit » définit le lien entre une représentation du produit et l’activité ou le processus utilisant ou générant cette représentation. La BMU est l’équivalent de la DMU pour les données et les processus de simulation. Au delà des géométries discrétisées, la dénommée BMU devrait, en principe, lier toutes les données et les modèles qui seront nécessaires pour simuler le comportement d’un ou plusieurs composants. L’élément clé pour atteindre l’objectif d’élargir le concept établi de la DMU (basée sur des modèles CAO) à celui de la BMU (basée sur des modèles CAE), est de trouver un concept d’interface bidirectionnel entre la BMU et sa DMU associée. C’est l’objectif du « Design-Analysis System Integration Framework » (DASIF) proposé dans cette thèse de doctorat. Ce cadre a vise à être implémenté au sein d’environnements PLM/SLM et doit pouvoir inter-opérer à la fois avec les environnements CAD-DMU et CAE-BMU. DASIF allie les fonctionnalités de gestion de données et de configuration des systèmes PDM avec les concepts et formalismes d’ingénierie système basée sur les modèles (MBSE) et des fonctionnalités de gestion des données de simulation (SDM). Cette thèse a été menée dans le cadre d’un projet de recherche européen : le projet CRESCENDO qui vise à développer le « Behavioural Digital Aircraft » (BDA) qui a pour vocation d’être la« colonne vertébrale » des activités de conception et simulation avancées en entreprise étendue. Le concept du BDA doit s’articuler autour d’une plateforme collaborative d’échange et de partage des données de conception et de simulation tout au long du cycle de développement et de vie des produits aéronautiques. [...]
The aim of this doctoral thesis is to contribute to the facilitation of design, integration and simulation activities in the aeronautics industry, but more generally in the context of collaborative complex product development. This objective is expected to be achieved through the use and improvement of digital engineering capabilities. During the last decade, the Digital Mock-Up (DMU) – supported by Product Data Management (PDM) systems – became a key federating environment to exchange/share a common 3D CAD model-based product definition between co-designers. It enables designers and downstream users(analysts) to access the geometry of the product assembly. While enhancing 3D and 2D simulations in a collaborative and distributed design process, the DMU offers new perspectives for analysts to retrieve the appropriate CAD data inputs used for Finite Element Analysis (FEA), permitting hence to speed-up the simulation preparation process. However, current industrial DMUs suffer from several limitations, such as the lack of flexibility in terms of content and structure, the lack of digital interface objects describing the relationships between its components and a lack of integration with simulation activities and data.This PhD underlines the DMU transformations required to provide adapted DMUs that can be used as direct input for large assembly FEA. These transformations must be consistent with the simulation context and objectives and lead to the concept of “Product View” applied to DMUs andto the concept of “Behavioural Mock-Up” (BMU). A product view defines the link between a product representation and the activity or process (performed by at least one stakeholder) that use or generate this representation as input or output respectively. The BMU is the equivalent of the DMU for simulation data and processes. Beyond the geometry, which is represented in the DMU,the so-called BMU should logically link all data and models that are required to simulate the physical behaviour and properties of a single component or an assembly of components. The key enabler for achieving the target of extending the concept of the established CAD-based DMU to the behavioural CAE-based BMU is to find a bi-directional interfacing concept between the BMU and its associated DMU. This the aim of the Design-Analysis System Integration Framework (DASIF) proposed in this PhD. This framework might be implemented within PLM/SLM environments and interoperate with both CAD-DMU and CAE-BMU environments. DASIF combines configuration data management capabilities of PDM systems with MBSE system modelling concepts and Simulation Data Management capabilities.This PhD has been carried out within a European research project: the CRESCENDO project, which aims at delivering the Behavioural Digital Aircraft (BDA). The BDA concept might consist in a collaborative data exchange/sharing platform for design-simulation processes and models throughout the development life cycle of aeronautics products. Within this project, the Product Integration Scenario and related methodology have been defined to handle digital integration chains and to provide a test case scenario for testing DASIF concepts. These latter have been used to specify and develop a prototype of an “Integrator Dedicated Environment” implemented in commercial PLM/SLM applications. Finally the DASIF conceptual data model has also served as input for contributing to the definition of the Behavioural Digital Aircraft Business Object Model: the standardized data model of the BDA platform enabling interoperability between heterogeneous PLM/SLM applications and to which existing local design environments and new services to be developed could plug
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Piton, Thomas. "Une Méthodologie de Recommandations Produits Fondée sur l'Actionnabilité et l'Intérêt Économique des Clients - Application à la Gestion de la Relation Client du groupe VM Matériaux". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00643243.

Texto completo
Resumen
Dans un contexte concurrentiel, la richesse des entreprises réside dans leurs clients. Il est plus rentable de fidéliser un client existant que d'en acquérir un nouveau. De ce fait, les entreprises cherchent à mieux connaître leurs clients pour trouver des moyens de les fidéliser. Cette approche de la connaissance des clients fondée sur l'analyse des données se heurte toutefois au volume important des données. Ce constat pousse les entreprises à Extraire des Connaissances à partir des Données. Ces connaissances et leur actionnabilité fournissent aux experts un outil d'aide à la décision dont la performance peut être mesurée par le retour sur investissement généré par les actions. Les systèmes de recommandation sont adaptés pour mettre en place ces outils car ils permettent de filtrer l'information puis de recommander de manière proactive des produits susceptibles de fidéliser le client. Dans le cadre d'une stratégie commerciale basée sur les forces de vente, comment fidéliser les clients pour accroître leur valeur ? Une mauvaise recommandation intrusive peut en effet avoir des répercussions importantes sur le client et le commercial peut refuser d'utiliser le système s'il ne juge pas les recommandations suffisamment pertinentes. Pour s'affranchir de ces contraintes, nous avons proposé la méthodologie CAPRE qui consiste à extraire des comportements de référence sous la forme de cohortes de règles en ciblant raisonnablement les clients présentant un manque à gagner et en quantifiant le profit espéré. Cette approche a été mise en oeuvre au sein de l'outil ARKIS. Notre méthodologie a été validée sur le jeu de données MovieLens puis validée et appliquée sur les données opérationnelles du groupe VM Matériaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Guillot, Bernard. "Réalisation d'un outil autonome pour l'écriture et l'interrogation de systèmes de gestion de bases de données et de connaissance sur une machine multiprocesseur évolution du concept de base de données vers la manipulation d'objets image et graphique". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375993889.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Guillot, Bernard. "Réalisation d'un outil autonome pour l'écriture et l'interrogation de systèmes de gestion de bases de données et de connaissances sur une machine multiprocesseur : évolution du concept de bases de données vers la manipulation d'objets image et graphique". Compiègne, 1986. http://www.theses.fr/1986COMPI219.

Texto completo
Resumen
La mise en œuvre d’un système MUMPS autonome sur la machine multimicroprocesseur SM90 nous a permis de dégager certaines fonctionnalités, associées aux niveaux conceptuel et interne des SGBD, qui s’avèrent particulièrement utiles comme outils pour l’écriture de SGBD. Le noyau principal de ces outils réside dans l’intégration d’une organisation hiérarchique et dynamique de données dans le langage MUMPS accessible à partir de la notion de variable globale. La modélisation des informations permet l’usage du système MUMPS dans un contexte de base de données relationnelles et en logique : l’espace de stockage directement accessible à travers le langage est celui des disques du système. Une extension du langage est proposée sous la forme d’une fonction pour l’interrogation et le parcours de l’espace global. Nous montrons une utilisation de l’espace global en déduction dans le cadre d’une interrogation basée sur la logique. La représentation de faits élémentaires, de règles dans une base de connaissances s’expriment à travers la notion de variable globale. L’adjonction de potentialités graphiques au systèmes MUMPS par l’apport d’un coprocesseur spécialisé permet d’envisager la réalisation d’interfaces graphiques de haut niveau. Enfin nous montrons que l’évolution du concept de base de données est lié à sa capacité à manipuler de nouveaux types d’objets, principalement les types graphique et image.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Lame, Guiraude. "Construction d'ontologie à partir de textes : une ontologie du droit dédiée à la recherche d'informations sur le Web". Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1157.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Pugeault, Florence. "Extraction dans les textes de connaissances structurées : une méthode fondée sur la sémantique lexicale linguistique". Toulouse 3, 1995. http://www.theses.fr/1995TOU30164.

Texto completo
Resumen
Cette these presente des travaux qui s'inscrivent dans le cadre de l'informatique linguistique et plus precisement dans le domaine de l'extraction de connaissances a partir de textes. Notre but est d'aller au-dela de l'indexation classique par mots-cles en representant l'information retenue comme pertinente sous une forme structuree. Ce projet a fait l'objet d'une collaboration avec la direction des etudes et des recherches d'edf. Pour representer le contenu semantique de textes rediges sans contrainte d'expression, nous avons distingue trois niveaux d'analyse: le niveau pragmatique, le niveau linguistique et le niveau conceptuel. Le niveau pragmatique permet le decoupage d'un texte selon ses parties rhetoriques qui correspondent a des articulations. Le niveau linguistique consiste a structurer les fragments de phrases pertinents pour chaque articulation sous la forme de structures predicatives etiquetees par des roles thematiques precis. Enfin, le niveau conceptuel vise a ameliorer la qualite d'exploitation des resultats du niveau linguistique, notamment en vue de l'interrogation de bases documentaires. Apres analyse de differentes approches, nous avons retenu la lcs (structure lexicale conceptuelle), theorie de jackendoff, pour representer conceptuellement les predicats consideres. Notre contribution sur le plan linguistique a consiste en un travail en profondeur sur la definition de l'ensemble des ressources linguistiques necessaires aux differentes etapes d'analyse que nous avons identifiees. Nous avons notamment defini un ensemble de roles thematiques qio ont une dimension cognitive et un certain nombre de donnees supplementaires en relation avec la lcs (primitives, etc. ). Nous avons aussi caracterise des elements de methode pour la definition de ressources lcs specifiques a un corpus donne. Nos analyses ont ete validees par la mise en uvre du prototype papins (prototype d'analyse pour la production d'index semantiques) que nous avons developpe en prolog
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Sokhn, Maria. "Plateforme de recherche basée d'information multimédia guidée par une ontologie dans une architecture paire à paire". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00678039.

Texto completo
Resumen
Au cours de la dernière décennie, nous avons assisté à une croissance exponentielle de documents numériques et de ressources multimédias, y compris une présence massive de ressources vidéo. Les vidéos sont devenu de plus en plus populaire grâce au contenue riche à l'audio riche qu'elles véhiculent (contenu audiovisuelle et textuelle). Les dernières avancées technologiques ont rendu disponibles aux utilisateurs cette grande quantité de ressources multimédias et cela dans une variété de domaines, y compris les domaines académiques et scientifiques. Toutefois, sans techniques adéquates se basant sur le contenu des multimédia, cette masse de donnée précieuse est difficilement accessible et demeure en vigueur inutilisable. Cette thèse explore les approches sémantiques pour la gestion ainsi que la navigation et la visualisation des ressources multimédias générées par les conférences scientifiques. Un écart, que l'on appelle sémantique, existe entre la représentation des connaissances explicites requis par les utilisateurs qui cherchent des ressources multimédias et la connaissance implicite véhiculée le long du cycle de vie d'une conférence. Le but de ce travail est de fournir aux utilisateurs une plateforme qui améliore la recherche de l'information multimédia des conférences en diminuant cette distance sémantique. L'objectif de cette thèse est de fournir une nouvelle approche pour le contenu multimédia basé sur la recherche d'information dans le domaine des conférences scientifiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Santorineos, Manthos. "Une approche sur la recherche et l'art à l'époque du numérique à travers l'étude des systèmes artificiels d'organisation de la mémoire humaine : nécessité et proposition d'un outil d'enregistrement et de synthèse des données susceptible de contribuer à la mise en place d'une nouvelle forme de doctorat ("doctorat_machine")". Phd thesis, Université Paris VIII Vincennes-Saint Denis, 2006. http://tel.archives-ouvertes.fr/tel-00180014.

Texto completo
Resumen
La société se trouve dans une situation hybride entre la civilisation du papier et celle de la technologie numérique, surtout en ce qui concerne l'enregistrement de la connaissance, mais la technologie numérique est actuellement utilisée pour l'amélioration des conditions et non pour leur évolution, et les vrais changements ne sont pas encore accomplis. Or les propriétés du nouveau système de traitement de la mémoire pourraient être exploitées en vue d'un changement de la manière de recherche et l'artiste-chercheur peut profiter d'une technologie qui se caractérise de la notion de " plateforme " et non plus de " media ". Dans ce cadre, il a été créé un système pour l'usage des capacités numériques de traitement de la connaissance pour affronter les problèmes de complexité de l'objet de recherche. Nous étudions ainsi l'hypothèse que ce système, le doctorat_machine, constitue la nouvelle forme de doctorat au niveau de l'enregistrement et de la présentation de la recherche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Buitrago, Hurtado Alex Fernando. "Aide à la prise de décision stratégique : détection de données pertinentes de sources numériques sur Internet". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENG002/document.

Texto completo
Resumen
Le domaine de notre recherche est la décision stratégique au sein des organisations. Plus précisément il s'agit de l'aide à la prise de décision stratégique et de la problématique de l'acquisition des informations utiles pour de telles décisions. D'un côté les ‘informations de terrain' issus des contacts entre personnes, des réunions professionnelles, etc. demeurent essentielles pour les dirigeants. D'un autre côté les journaux quotidiens nationaux et internationaux fournissent un volume considérable de données que l'on peut qualifier de données brutes (Raw data). Mais, outre ces sources classiques, le recueil des informations a évolué de façon considérable avec l'avènement des technologies de l'information et notamment de l'Internet pour ce qui concerne dans notre recherche. Nous avons choisi le domaine concernant l'acquisition des informations de terrain fournies par les journaux nationaux quotidiens : les journaux quotidiens colombiens pour ce qui concernera notre étude empirique. Pour acquérir cette information nous avons proposé sur la base d'une recherche du type « Action Design Research », de concevoir, de construire et d'expérimenter un artéfact permettant de détecter des signaux faibles potentiels issus des données extraites d'Internet et qui aideraient les dirigeants de l'entreprise à découvrir et comprendre leur environnement. L'artéfact a été conçu et construit en deux phases utilisant des concepts théoriques liés à la surcharge de données, à la veille stratégique notamment la VAS-IC® (Veille Anticipative Stratégique – Intelligence Collective) et sur les caractéristiques souhaitables des systèmes informatisés d'aide à la décision stratégique. Après sa construction, l'artéfact a été expérimenté sur un terrain permettant d'évaluer son effectivité. Cette expérimentation a permis d'améliorer nos connaissances sur la pertinence des données numériques dans le processus de la prise de la décision. Les décideurs impliqués ont également pu d'intégrer des nouvelles pratiques adaptées à leurs besoins d'information
Our research area is around the strategic decision within organizations. More precisely, it is applicable as an aid for strategic decision-making and detecting useful information for such decisions. On the one hand, the ‘information from the field' from the contacts between individuals, business meetings, etc. is always essential for managers. On the other hand, national and international newspapers can provide a considerable volume of data that can be defined as the raw data. However, besides these classical sources, gathering information has changed dramatically with the advent of information technology and particularly internet that is related to our research. We chose the area for the acquisition of ‘information from the field' provided by the national daily newspapers: the Colombian newspaper which concerns to our empirical study. In order to detect weak signals of potential internet base issues which help managers to discover and understand their environment, we proposed a research based on “Action Design Research” type and then applied for designing, building and testing an artifact to gain the required information. The artifact has been designed and built in two phases that is included of using theoretical concepts about the data overload, environmental scanning particularly the “anticipatory and collective environmental scanning model” (VAS-IC®) and the desirable characteristics of strategic decision making support systems. After its construction, the artifact applied to real experimentation that has allowed us to evaluate its effectiveness. Afterwards, we improved our knowledge about the relevance of digital data in the decision making process. The results of all the involved decision makers have been able to integrate these new practices into their information needs
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Vieira, Jordão Jorge Manuel. "Le knowledge-based view à l’épreuve des faits : l’interaction entre le knowledge et le knowing et son impact sur la gestion de la connaissance : cas d’expérimentation dans le secteur de services informatiques". Thesis, Paris, CNAM, 2010. http://www.theses.fr/2010CNAM0724/document.

Texto completo
Resumen
D´après sa déjà longue carrière professionnelle, l´auteur s´interrogea sur le sens du management de la connaissance dans les entreprises de services informatiques où on avait traditionnellement tendance à appréhender les connaissances plutôt comme des objets au lieu de les penser en termes de processus. Au travers de trois expériences successives de recherche-intervention – à la tête d´une software house, orientant un éditeur de logiciel ou dirigeant un centre de services partagés – l´auteur a démontré qu´en privilégiant le knowing sur le knowledge, ainsi que son articulation avec les processus stratégiques et organisationnels, il est possible de donner un contenu au KBV (Knowledge-Based View) dans le secteur des sociétés de services informatiques.En effet, la première de ces expériences montrait qu´en articulant la stratégie et les processus organisationnels d´Eurociber de façon adéquate le partage de la connaissance contribuait pour un vrai contenu du KBV tandis que lors de la deuxième expérience - chez I2S - ce contenu se concrétisait par la coproduction en étroite interaction avec les clients. Finalement, au CA Serviços on a reconnu l´importance de la création de connaissance comme un outil pour le changement stratégique étant donné le besoin fondamental de générer des connaissances sur les interfaces requises par le développement d´une nouvelle vision partagée
Based on his already long professional career the author asked himself what knowledge management would mean for the knowledge-intensive business services firms where there was a traditional tendency to view knowledge as an object instead of a process of knowing.Through three successive experiments of intervention-research – managing a software house, leading a supplier of packaged software or running a shared services centre – the author has proved that privileging the knowing over the knowledge and ensuring a correct articulation with the strategic and organizational processes it is possible that the KBV (Knowledge-Based View) will make sense in the knowledge-intensive business services sector.In fact, during the first experiment it was shown that articulating appropriately the strategy and the operational processes of Eurociber the KBV made sense through knowledge sharing while during the second experiment at I2S that was achieved through the coproduction in close interaction with the customers. Finally, at CA Serviços it was recognized the importance of knowledge creation as a tool for strategic management assuming the fundamental need to generate knowledge about the interfaces required by the development of a new shared vision
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

David, Isabelle. "Perception des professionnels de la santé par rapport à l'introduction d'une plateforme Web 2.0 dans leur pratique". Thèse, 2012. http://hdl.handle.net/1866/7117.

Texto completo
Resumen
Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.
Introduction: Health professionals are increasingly encouraged to adopt an evidence-based practice. However, gaps continue to be observed between scientific evidence and practice. Through its interactive capabilities, Web 2.0 can contribute to an evidence-based practice by improving exchange of relevant clinical and scientific information’s. Objective: This study is a part of a project that wants to design a Web 2.0 platform for health professionals working with stroke patients. The aim is to gain a better understanding of professionals’ perceptions of Web 2.0 before platform development. Methods: A qualitative study following the phenomenological approach was chosen. We conducted individual semi-structured interviews with 24 clinicians and managers. Results: Interviewed people were all women with a mean age of 45 years (± 18). Knowledge transfer was identified to be the most useful outcome of a Web 2.0 platform. Respondents also expressed their need for a user-friendly platform. Results also highlight a time paradox. Clinicians feel that the Web 2.0 will help them save time while they argue that they will not have time to use it. Conclusion: While Web 2.0 remains a knowledge transfer tool not yet integrated in clinical practice, professionals working with stroke patients generally receive its implementation positively.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Lessard, Chantale. "Le rôle de l’évaluation économique dans la pratique des médecins de famille = The role of economic evaluation in the practice of family physicians". Thèse, 2011. http://hdl.handle.net/1866/7044.

Texto completo
Resumen
L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.
Health economic evaluations are analytic techniques to assess the relative costs and consequences of health services. Their role is to inform the decision-making process. A vast amount of resource allocation decisions are undertaken at the clinical-encounter level; especially in primary care. Since every decision has an opportunity cost, ignoring economic information in family physicians’ practices may have a broad impact on health care efficiency. There is little evidence on the influence of economic evaluation on clinical practice. The objective of the thesis is to understand the role of economic evaluation in family physicians’ practices. Its contributions are presented in four original articles (philosophical, theoretical, methodological, and empirical). The philosophical article suggests that complexity and reflexivity are two important issues for economic evaluation. Complexity thinking is the philosophical perspective (overarching epistemological approach) underpinning the thesis. This way of thinking focuses attention on explanation and understanding and gives particular emphasis to relations and interactions (interactive causality). This increased emphasis on the context and process of data production highlights the importance of reflexivity in the research process. The theoretical article develops a new and different conceptualization of the research problem. The originality of the thesis also lay in the research problem being approached from the perspective of Pierre Bourdieu's sociological theory. Bourdieu’s approach embraces complexity. Moving away from individualist, rational models of action, it can contribute to a more complete and complex understanding of social phenomena by revealing the structuring effects of social fields on the individual’s dispositions and practices. The methodological article presents the protocol of a qualitative embedded multiple-case study research. There were two embedded units of analysis: the family physicians (micro-individual level) and the field of family medicine (macro-structural level). Eight case studies were performed with the family physician as the unit of analysis. The sources of data collection for the micro-level were eight life history interviews with family physicians, documents and observational evidence. The sources of data collection for the macro-level were documents, and eight open-ended focused interviews with key informants, from nine medical organizations. The analytic induction approach to data analysis was used. The empirical article presents all the empirical findings of the thesis. The findings show an increasing integration of economics concepts into the official discourse of family medicine organizations. However, at the level of practice, the economization of this discourse does not seem to be true depictions of reality as the very great majority of the study participants do not embody this discourse. The contributions include a deep understanding of the social processes that influence family physicians’ schemes of perception, thought, appreciation and action with respect to the role of economic evaluation in their practices, and the family physicians’ willingness to contribute to efficient, fair and legitimate resource allocation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía