Thèses sur le sujet « Connaissances utilisateurs »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Connaissances utilisateurs.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 39 meilleures thèses pour votre recherche sur le sujet « Connaissances utilisateurs ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Govaere, Virginie. « Evaluation et guidage d'un utilisateur dans un environnement d'apprentissage : application au domaine de la rééducation de la parole ». Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0285_GOVAERE.pdf.

Texte intégral
Résumé :
Le cadre général de ce travail est celui des EIAO. L'objectif de tels systèmes est de fournir l'aide la plus efficace à l'utilisateur. Malgré une évolution notable, les fonctions d'adaptation et de guidage de l'utilisateur font encore défaut dans ces systèmes. De mon travail résulte des propositions de cadres, de modèles, d'outils qui permettent de concevoir les fonctions d'adaptation et de guidage en intégrant les apports des disciplines variées. L'originalité réside ici dans la place qu'occupe ici le cognitif dans le fondement de nos propositions. Ainsi, nous proposons un modèle de fonctionnement de l'acquisition des connaissances chez le sujet. De ce modèle, nous établissons des choix de modélisation de connaissances manipulées qui prônent l'intérêt du qualitatif sur le quantitatif. Ces choix de représentations qualitatives s'inscrivent tant au niveau de la représentation des connaissances elle-même que des mécanismes qui y sont associés (évaluation et synthèse des connaissances). Nos propositions sont d'une part, en ce qui concerne l'adaptation elle même, d'intérioriser ponctuellement les connaissances de l'utilisateur afin de disposer de connaissances de référence individualisées et d'autre part, de proposer un guidage dans un arbre de tâches à un niveau global (choix des exercices en fonction de la satisfaction des contraintes liées à l'exercice, et un guidage dépendant des connaissances antérieures à un niveau microscopique). D'autres aspects sont discutés tels ceux concernant la définition du critère d'acceptabilité d'une réponse, la définition et le rôle de l'erreur dans le processus d'acquisition, la motivation et l'effet de celle-ci selon le niveau de connaissances du sujet ou encore la prise en compte du temps dans l'apprentissage. Au niveau applicatif, nous illustrons nos propositions par un système GEREV (guidage et à l'évaluation dans un environnement de rééducation vocale pour non-entendants) dans lequel nous déclinons les fonctionnalités essentielles de notre approche.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ory, Jérémie. « Connaissances pour la conception et la perception de styles topographiques ». Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1058/document.

Texte intégral
Résumé :
La conception de cartes topographiques de référence est aujourd’hui caractérisée par une multiplication des données géographiques et des services de conception cartographiques de plus en plus distribués. Dans ce contexte, il est nécessaire d’enrichir les connaissances existantes sur la rédaction cartographique afin de préserver la qualité des cartes produites, i.e. qu’elles soient lisibles et efficaces. Nous faisons l’hypothèse que le style topographique facilite la lisibilité et l’efficacité d’une carte grâce à des codes et repères visuels connus des utilisateurs. Nous nous sommes fixés comme objectif de formaliser la notion de style topographique en tant que famille cartographique regroupant des signes graphiques reconnus des utilisateurs afin de pouvoir l’utiliser pour produire de nouvelles cartes topographiques.Dans ce travail de thèse, nous proposons un modèle conceptuel intégrant les concepts clés de signature visuelle et de famille cartographique. Nous validons et instancions ce modèle à travers la mise en place d’entretiens auprès d’experts cartographes et le déploiement de deux expérimentations auprès d’utilisateurs permettant d’étudier les familles cartographiques IGN et Swisstopo. Les résultats obtenus permettent de caractériser les signatures visuelles de chacune de ces deux familles cartographiques. À l’aide de la caractérisation des signatures visuelles de ces deux styles topographiques typiques (IGN-France et Swisstopo), nous proposons des recommandations qui permettraient de produire de nouvelles cartes topographiques pour les deux cas d’application suivants : (1) produire de nouvelles cartes topographiques appartenant au même style topographique, (2) produire de nouvelles cartes topographiques à la frontière entre deux pays / agences nationales de cartographie
The design of topographic maps of reference is characterised both by an increasing amount of reference geographic databases and by design geo-services operating in distributed architectures. In this context, one of the major challenges consists in enriching the current knowledge on cartographic design in order to preserve the maps quality, i.e. they are legible, effective and usable. We assume that the topographic style renders maps legible and effective thanks to the visual codes and guides, well-known by the users. Our research purpose aims at formalising the concept of a topographic style as a cartographic family with a recognizable visual signature in order to produce new topographic maps.We propose to formalize key concepts of visual signature and cartographic family in a unified model. We validate and instantiate this model in setting up interviews of cartography experts and in designing user’s experiments allowing to evaluate the visual recognition of maps and graphic signs belonging in Swisstopo and IGN-France cartographic families. With results of the two user’s experiments, we characterize the visual signature of the two cartographic families. Then, we propose cartographic design guidelines in order to produce reference topographic maps based on the characterisation of the visual signature for two cases studies: (1) design a map belonging in a given cartographic family, (2) design a map on the border of two countries / two national mapping agencies
Styles APA, Harvard, Vancouver, ISO, etc.
3

Jambert, Amandine. « Outils cryptographiques pour la protection des contenus et de la vie privée des utilisateurs ». Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14234/document.

Texte intégral
Résumé :
Les problématiques de respect de la vie privée sont aujourd'hui indissociables des technologies modernes. Dans ce contexte, cette thèse s'intéresse plus particulièrement aux outils cryptographiques et à la façon de les utiliser pour répondre à ces nouvelles questions.Dans ce mémoire, je m'intéresserai tout d'abord aux preuves de connaissance sans divulgation qui permettent notamment d'obtenir la propriété d'anonymat pour les usagers de services de télécommunications. Je proposerai ainsi une nouvelle solution de preuve de connaissance d'un secret appartenant à un intervalle, ainsi que la première étude comparative des preuves existantes sur ce sujet. Je décrirai ensuite une nouvelle méthode permettant de vérifier efficacement un ensemble de preuves de type "Groth-Sahaï'', accélérant ainsi considérablement le travail du vérifieur pour de telles preuves. Dans un second temps, je m'intéresserai aux signatures caméléons. Celles-ci permettent de modifier, sous certaines conditions, un message signé. Ainsi, pour ces schémas, il est possible d'exhiber, à l'aide d'une trappe, une signature valide du signataire initial sur le message modifié. Je proposerai d'abord un nouveau schéma qui est à ce jour le plus efficace dans le modèle simple. Je m'intéresserai ensuite à certaines extensions de ce modèle qui ont pour vocation de donner au signataire les moyens de garder un certain contrôle sur les modifications faites a posteriori sur le message initial. Je décrirai ainsi à la fois le nouveau modèle de sécurité et les schémas associés prenant en compte ces nouvelles extensions. Enfin, je présenterai un ensemble d'applications se basant sur les briques cryptographiques introduites ci-dessus et qui permettent d'améliorer la protection de la vie privée des utilisateurs. J'aborderai tout particulièrement les problématiques d'abonnement, d'utilisation ou de facturation de services, ainsi que la gestion de contenus protégés dans un groupe hiérarchisé
Privacy is, nowadays, inseparable from modern technology. This is the context in which the present thesis proposes new cryptographic tools to meet current challenges.Firstly, I will consider zero-knowledge proofs of knowledge, which allow in particular to reach the anonymity property. More precisely, I will propose a new range proof system and next give the first comparison between all existing solutions to this problem. Then, I will describe a new method to verify a set of ``Groth-Sahaï'' proofs, which significantly decreases the verification time for such proofs.In a second part, I will consider sanitizable signatures which allow, under some conditions, to manipulate (we say ``sanitize'') a signed message while keeping a valid signature of the initial signer. I will first propose a new scheme in the classical case. Next, I will introduce several extensions which enable the signer to obtain better control of the modifications done by the ``sanitizer''. In particular, I will propose a new security model taking into account these extensions and give different schemes achieving those new properties.Finally, I will present different applications of the above cryptographic tools that enhance customer privacy. In particular, I will consider the questions of subscription, use and billing of services and also address the issue of managing protected content in a hierarchical group
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cordier, Amélie. « Interactive and Opportunistic Knowledge Acquisition in Case-Based Reasoning ». Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00364368.

Texte intégral
Résumé :
Jeune discipline à la croisée de l'informatique, de l'intelligence artificielle et des sciences cognitives, l'ingénierie des connaissances vise à modéliser les connaissances d'un domaine pour les opérationnaliser dans un outil informatique. Pour cela, elle propose des outils théoriques, des modèles et des méthodologies empiriques pour instrumenter les systèmes et permettre l'échange de connaissances entre l'utilisateur et l'outil informatique.
Le travail développé ici traite de l'ingénierie des connaissances d'une catégorie de systèmes en particulier : les systèmes de raisonnement à partir de cas (RÀPC). Un système de RÀPC assiste un utilisateur dans sa tâche de résolution de problème en lui proposant une adaptation à la situation courante d'une précédente expérience. C'est en particulier au système en interaction "utilisateur - outil de RÀPC" que nous nous intéressons ici.
La problématique étudiée peut donc être exprimée ainsi : quelles méthodes et outils développer pour instrumenter efficacement le système apprenant "utilisateur - outil de RàPC" ? Cette problématique soulève un questionnement sur les connaissances du raisonnement et conduit à une analyse au niveau connaissance de tels systèmes. Un autre volet d'analyse porte sur les interactions entre l'utilisateur et l'artefact informatique pendant les phases de résolution de problème. Ces aspects sont étudiés à plusieurs niveaux dans les différentes contributions présentées dans cette thèse.
Nos différentes expériences et expérimentations nous ont conduits à proposer, comme première contribution, une formalisation à un niveau général de l'apprentissage interactif de connaissances en RÀPC (FIKA). Cette formalisation repose sur les échecs de raisonnement qui, puisqu'ils permettent de mettre en évidence les lacunes dans les connaissances disponibles, sont utilisés pour guider le processus d'apprentissage. Deux extensions de ce modèle général ont été proposées : IAKA et FRAKAS.
IAKA raffine les principes proposés par FIKA pour permettre leur mise en ?uvre immédiate dans une certaine catégorie de systèmes où les connaissances peuvent être représentées selon un modèle donné (cas et connaissances d'adaptation représentées par des opérateurs d'adaptation). Ces principes ont été implantés et expérimentés dans une application développée à des seules fins expérimentales.
FRAKAS propose des méthodes et outils similaires pour une autre catégorie de systèmes ou les connaissances du domaines sont utilisées pour guider l'adaptation. Ces principes ont, quant à eux, été implantés dans un prototype inspiré d'une application réelle.
IAKA et FRAKAS, les deux extensions de l'approche FIKA, présentent des forces et des limites, une réflexion quant à leur intégration possible à donc été menée. Une première tentative pratique d'intégration a été mise en ?uvre dans une application de RÀPC permettant l'adaptation de recettes de cuisine : le logiciel TAAABLE.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Razmerita, Liana. « Modèle utilisateur et modélisation utilisateur dans les systèmes de gestion des connaissances : une approche fondée sur les ontologies ». Toulouse 3, 2003. http://www.theses.fr/2003TOU30179.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Moulet, Lucie. « Modélisation de l'apprenant avec une approche par compétences dans le cadre d'environnement d'apprentissage en ligne ». Paris 6, 2011. http://www.theses.fr/2011PA066636.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Jeyasothy, Adulam. « Génération d'explications post-hoc personnalisées ». Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS027.

Texte intégral
Résumé :
La thèse se place dans le domaine de l'IA explicable (XAI, eXplainable AI). Nous nous concentrons sur les méthodes d'interprétabilité post-hoc qui visent à expliquer à un utilisateur la prédiction pour une donnée d'intérêt spécifique effectuée par un modèle de décision entraîné. Pour augmenter l'interprétabilité des explications, cette thèse étudie l'intégration de connaissances utilisateur dans ces méthodes, et vise ainsi à améliorer la compréhensibilité de l'explication en générant des explications personnalisées adaptées à chaque utilisateur. Pour cela, nous proposons un formalisme général qui intègre explicitement la connaissance via un nouveau critère dans les objectifs d'interprétabilité. Ce formalisme est ensuite décliné pour différents types connaissances et différents types d'explications, particulièrement les exemples contre-factuels, conduisant à la proposition de plusieurs algorithmes (KICE, Knowledge Integration in Counterfactual Explanation, rKICE pour sa variante incluant des connaissances exprimées par des règles et KISM, Knowledge Integration in Surrogate Models). La question de l'agrégation des contraintes de qualité classique et de compatibilité avec les connaissances est également étudiée et nous proposons d'utiliser l'intégrale de Gödel comme opérateur d'agrégation. Enfin nous discutons de la difficulté à générer une unique explication adaptée à tous types d'utilisateurs et de la notion de diversité dans les explications
This thesis is in the field of eXplainable AI (XAI). We focus on post-hoc interpretability methods that aim to explain to a user the prediction for a specific data made by a trained decision model. To increase the interpretability of explanations, this thesis studies the integration of user knowledge into these methods, and thus aims to improve the understandability of the explanation by generating personalized explanations tailored to each user. To this end, we propose a general formalism that explicitly integrates knowledge via a new criterion in the interpretability objectives. This formalism is then declined for different types of knowledge and different types of explanations, particularly counterfactual examples, leading to the proposal of several algorithms (KICE, Knowledge Integration in Counterfactual Explanation, rKICE for its variant including knowledge expressed by rules and KISM, Knowledge Integration in Surrogate Models). The issue of aggregating classical quality and knowledge compatibility constraints is also studied, and we propose to use Gödel's integral as an aggregation operator. Finally, we discuss the difficulty of generating a single explanation suitable for all types of users and the notion of diversity in explanations
Styles APA, Harvard, Vancouver, ISO, etc.
8

Mghirbi, Rim. « Agrégation des résultats dans les systèmes de recherche d’information pair-à-pair non structurés ». Thesis, Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0003/document.

Texte intégral
Résumé :
Une grande partie de l’impulsion de diverses technologies d’Internet par les systèmes Pair-à-Pair (Peer-to-Peer ou P2P) peut être vue comme une réaction au détriment du centrage de contenu sur les serveurs devant des clients passifs. Une des caractéristiques distinctives de tout système P2P est ce que nous appelons souvent connectivité directe de bout en bout entre pairs égaux. Le Pair-à-Pair a augmenté les débits des échanges entre des communautés dynamiques des utilisateurs qui tendent à augmenter rapidement. Nous parlons donc de systèmes distribués à large échelle dans lesquels l’information échangée, partagée et recherchée atteint des volumes de plus en plus impressionnants. Dans le cadre de cette thèse, nous nous intéressons essentiellement à la Recherche d'Information dans les systèmes de Recherche d’Information P2P (RIP2P) et plus précisément au problème d'agrégation des résultats dans de tels systèmes. Résoudre le problème d'agrégation en RIP2P de la même manière que sa résolution dans un cadre de Recherche d’Information Distribuée (RID) va manquer beaucoup d’intelligibilité. En effet, ça fait perdre de vue tout un contexte qui a changé en RIP2P, vu le facteur d'échelle et l’absence d’une vision globale sur le système, dans ces réseaux qui s'étendent naturellement à des milliers voire des millions de pairs. Ceci va impliquer notamment la suppression d'un serveur courtier inadéquat dans ce contexte et va soulever le problème de retrouver de nouvelles politiques pour agréger des résultats provenant de pairs hétérogènes dans une liste unique tout en reflétant les attentes de l'utilisateur. Toutes ces raisons nous ont incités à explorer un mécanisme d’agrégation basé sur les profils des utilisateurs déduits de leurs comportements passés suite à leurs interactions avec les résultats d’une requête. Dans cette thèse nos contributions portent sur deux axes complémentaires. D’abord, nous proposons une nouvelle vision d'agrégation de résultats dans un contexte large échelle. Dans ce cadre un modèle de profils et une approche de score hybride à base de profils sont proposés. Ensuite nous avons mis l’accent sur la mise en place d’un cadre d'évaluation de notre approche dans les systèmes à large échelle
A huge part of the impetus of various internet technologies through the Peer-to-Peer (Peer-to-Peer or P2P) system can be seen as a reaction to the content centering detriment on the servers in front of passive clients. One of the distinctive features of any P2P system is what we often call direct connectivity between equal peers. The Peer-to-Peer increased the exchange flows between dynamic communities of users which tend to grow rapidly. We talk, therefore, about large-scale distributed systems in which the exchanged, shared and sought information reaches a more and more impressive volumes. Solving the aggregation problem in P2PIR systems the same way as its resolution in Distributed Information Retrieval (DIR) will miss a lot of intelligibility. In fact, the context has changed in RIP2P, given the scale factor and the lack of a global vision of the system in these networks that extend naturally to thousands or even millions peers. This will involve the removal of a broker server that is inadequate in this context and will raise the problem of finding new policies to aggregate results coming from heterogeneous peers in a single list while reflecting the user’s expectations. All these reasons prompted us to explore an aggregation mechanism based on user profiles deduced from their past behavior due to their interaction with query results. Our contributions, in this thesis, focus on two complementary axes. First, we propose a new vision of results aggregation in a large scale system. In this context, a profiles model and a hybrid score profiles-based approach are proposed. Second, we focused on the development of an evaluation framework of our approach in large-scale systems. In this thesis, we are mainly interested in the Information Retrieval problem in P2P systems (P2PIR) and focusing more specifically on the problem of results’ aggregation in such systems
Styles APA, Harvard, Vancouver, ISO, etc.
9

Piantanida, Pablo. « THÉORIE DE L'INFORMATION MULTI-UTILISATEUR : INFORMATION ADJACENTE ET CONNAISSANCE IMPARFAITE DU CANAL ». Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00168330.

Texte intégral
Résumé :
La capacité de canaux mono et multi-utilisateur dépendant d'états avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux désadaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque, en supposant des canaux discrets sans mémoire. Ces resultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage.

Dans cette thèse, nous introduisons d'abord la notion de "estimation-induced outage capacity" pour des canaux mono-utilisateur, où lémetteur et le récepteur \oe uvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service (QoS), quel que soit le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Dans notre cas, la contrainte sur la qualité de service permet d'atteindre les taux souhaités avec une probabilité d'erreur faible (le service de communication visé), même dans le cas où les estimations du canal sont mauvaises. Nos résultats fournissent une notion intuitive de l'impact des estimations et des caractéristiques du canal (e.g. SNR, taille des séquences d'apprentissage, voies de retour) sur le taux de coupure.

Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous nous focalisons sur les familles de décodeurs qui peuvent être implémentées sur la plupart des systèmes pratiques de modulation codée. Nous nous basons sur le décodeur théorique qui atteint la capacité, pour obtenir une métrique practique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Cette métrique est ensuite appliquée au cas des canaux MIMO à évanouissements. D'après notre notion du taux de coupure, nous déterminons le taux maximal d'information atteignable associé au décodeur proposé. Les résultats numériques montrent que, sans introduire de complexité additionnelle dans le décodage, la métrique proposée fournit des gains significatifs, en termes de taux d'information atteignables et de taux d'erreur binaire (BER), dans le cas de modulation codée à bits entrelacés (BICM).

Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à lémetteur sur la capacité de canaux dépendant d'états avec information adjacente non-causale à lémetteur. Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Cette notion nous permet de considérer la capacité d'un canal composé (plus bruité) de type Gelfand et Pinsker. Nous obtenons le schéma de codage optimal de type "Dirty-paper coding (DPC)" qui atteint la capacité (sous l'hypothèse d'entrées Gaussiennes) du canal à évanouissements de type Costa. Les résultats illustrent le compromis pratique entre la quantité d'apprentissage du canal et son impact sur les performances de l'annulation d'interférences du schéma DPC. Cette approche nous permet d'étudier la région de capacité de canaux MIMO multi-utilisateur de diffusion à évanouissements (MIMO-BC), où les mobiles (les récepteurs) disposent uniquement d'une estimation bruitée des paramètres du canal, et ces estimations sont (ou non) disponibles à la station de base (l'émetteur). Nous observons en particulier, le résultat surprenant que pour ce canal de diffusion avec une antenne unique à l'émetteur et aux récepteurs et des estimées imparfaites du canal connues aux récepteurs, une connaissance de ses estimées à l'émetteur n'est pas nécessaire pour atteindre des taux élevés.

Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur. Nous montrons d'abord qu'en fonction de l'application visée et des conditions requises sur les différents messages en termes de robustesse et de transparence, il y a un parallèle entre l'insertion de l'information multi-utilisateur et les canaux multi-utilisateur avec information adjacente à l'émetteur. Nous nous focalisons sur les canaux de diffusion Gaussiens (GBC) et sur les canaux Gaussiens à accès multiples (MAC). Ceci consiste en une conception commune de schémas de codage pratiques de type DPC basés sur les solutions théoriques correspondant à ces canaux. Ces résultats étendent les implémentations pratiques de type QIM, DC-QIM et SCS initialement conçues pour un utilisateur au cas de plusieurs utilisateurs. Nous montrons que l'écart avec les performances optimales (les régions de capacités) peut être minimisé en utilisant des mots de code basés sur un réseau maillé de dimension finie.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Piantanida, Juan Pablo. « Théorie de l'information multi-utilisateur : information adjacente et connaissance imparfaite du canal ». Paris 11, 2007. http://www.theses.fr/2007PA112053.

Texte intégral
Résumé :
La capacité des canaux mono et multi-utilisateur avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux des adaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque. Ces résultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage. Nous introduisons d'abord la notion de "estimation-induced outage capacity", où l'émetteur et le récepteur oeuvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service, quel que soir le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous obtenons une métrique pratique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à l'émetteur sur la capacité des canaux dépendant d'états avec information adjacente non-causale à l'émetteur (canaux MIMO multi-utilisateur). Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur
The capacity of single and multi-user channels under imperfect channel knowledge are investigated. We address these channel mismatch scenarios by introducing two novel notions of reliable communication under channel estimation errors, for which we provide an associated coding theorem and its corresponding converse. Basically, we exploit for our purpose an interesting feature of channel estimation through use of pilot symbols. This feature is the availability of the statistic characterizing the quality of channel estimates. We first introduce the notion of estimation-induced outage capacity, where the transmitter and the receiver strive to construct codes for ensuring reliable communication with a quality-of-service, no matter which degree of accuracy estimation arises during a transmission. Then the optimal decoder achieving this capacity is investigated. We derive a practical decoding metric and its achievable rates, for arbitrary memoryless channels that minimizes the average of the transmission error probability over all channel estimation errors. We next consider the effects of imperfect channel estimation at the receivers with imperfect (or without) channel knowledge at the transmitter on the capacity of state-dependent channels withe non-causal CSI at the transmitter (e. G. The multi-user Fading MIMO Broadcast Channel). We address this through the notion of reliable communication based on the average of the transmission error probability over all channel estimation erros. Finally, we consider several implementable DPC schemes for multi-user information embedding, through emphasizing their tight relationship with conventional multi-user information theory
Styles APA, Harvard, Vancouver, ISO, etc.
11

Serrano, Laurie. « Vers une capitalisation des connaissances orientée utilisateur : extraction et structuration automatiques de l'information issue de sources ouvertes ». Caen, 2014. http://www.theses.fr/2014CAEN2011.

Texte intégral
Résumé :
Face à l’augmentation vertigineuse des informations disponibles librement (notamment sur le Web), repérer efficacement celles qui présentent un intérêt s’avère une tâche longue et complexe. Les analystes du renseignement d’origine sources ouvertes sont particulièrement concernés par ce phénomène. En effet, ceux-ci recueillent manuellement une grande partie des informations d'intérêt afin de créer des fiches de connaissance résumant le savoir acquis à propos d’une entité. Dans ce contexte, cette thèse a pour objectif de faciliter et réduire le travail des acteurs du renseignement et de la veille. Nos recherches s’articulent autour de trois axes : la modélisation de l’information, l'extraction d’information et la capitalisation des connaissances. Nous avons réalisé un état de l’art de ces différentes problématiques afin d'élaborer un système global de capitalisation des connaissances. Notre première contribution est une ontologie dédiée à la représentation des connaissances spécifiques au renseignement et pour laquelle nous avons défini et modélisé la notion d'événement dans ce domaine. Par ailleurs, nous avons élaboré et évalué un système d’extraction d’événements fondé sur deux approches actuelles en extraction d'information : une première méthode symbolique et une seconde basée sur la découverte de motifs séquentiels fréquents. Enfin, nous avons proposé un processus d’agrégation sémantique des événements afin d'améliorer la qualité des fiches d'événements obtenues et d'assurer le passage du texte à la connaissance. Celui-ci est fondé sur une similarité multidimensionnelle entre événements, exprimée par une échelle qualitative définie selon les besoins des utilisateurs
Due to the considerable increase of freely available data (especially on the Web), the discovery of relevant information from textual content is a critical challenge. Open Source Intelligence (OSINT) specialists are particularly concerned by this phenomenon as they try to mine large amounts of heterogeneous information to acquire actionable intelligence. This collection process is still largely done by hand in order to build knowledge sheets summarizing all the knowledge acquired about a specific entity. Given this context, the main goal of this thesis work is to reduce and facilitate the daily work of intelligence analysts. For this sake, our researches revolve around three main axis: knowledge modeling, text mining and knowledge gathering. We explored the literature related to these different domains to develop a global knowledge gathering system. Our first contribution is the building of a domain ontology dedicated to knowledge representation for OSINT purposes and that comprises a specific definition and modeling of the event concept for this domain. Secondly, we have developed and evaluated an event recognition system which is based on two different extraction approaches: the first one is based on hand-crafted rules and the second one on a frequent pattern learning technique. As our third contribution, we proposed a semantic aggregation process as a necessary post-processing step to enhance the quality of the events extracted and to convert extraction results into actionable knowledge. This is achieved by means of multiple similarity measures between events, expressed according a qualitative scale which has been designed following our final users' needs
Styles APA, Harvard, Vancouver, ISO, etc.
12

Roy, Thibault. « Visualisations interactives pour l'aide personnalisée à l'interprétation d'ensembles documentaires ». Phd thesis, Université de Caen, 2007. http://tel.archives-ouvertes.fr/tel-00176825.

Texte intégral
Résumé :
Avec la multiplication des documents électroniques, les utilisateurs se retrouvent face à une véritable montagne de textes difficile à gravir.
Cette thèse, prenant place en Traitement Automatique des Langues, a pour objectif d'aider les utilisateurs dans de telles situations.
Les systèmes traditionnellement proposés (tels les moteurs de recherche) ne donnent pas toujours satisfaction aux utilisateurs pour des tâches répétées, prenant peu en considération leur point de vue et leurs interactions avec le matériau textuel.

Nous proposons dans cette thèse que la personnalisation et l'interaction soient au centre de nouveaux outils d'aide pour l'accès au contenu d'ensembles de textes.
Ainsi, nous représentons le point de vue de l'utilisateur sur ses domaines d'intérêt par des ensembles de termes décrits et organisés selon un modèle de sémantique lexicale différentielle.
Nous exploitons de telles représentations pour construire des supports cartographiques d'interactions entre l'utilisateur et l'ensemble de textes, supports lui permettant de visualiser des regroupements, des liens et des différences entre textes de l'ensemble, et ainsi d'appréhender son contenu.

Afin d'opérationnaliser de telles propositions, nous avons mis au point la plate-forme ProxiDocs.
Différentes validations de la plate-forme, prenant place dans des contextes pluridisciplinaires variés allant notamment de la recherche d'information sur Internet à l'étude d'expressions métaphoriques, ont ainsi permis de dégager la valeur ajoutée de nos propositions.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Julien, David. « Goliath : un environnement à base de modèles et d'agents pour la conception d'interfaces utilisateur ». Paris 6, 2004. http://www.theses.fr/2004PA066171.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
14

Montoya, David. « Une base de connaissance personnelle intégrant les données d'un utilisateur et une chronologie de ses activités ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN009/document.

Texte intégral
Résumé :
Aujourd'hui, la plupart des internautes ont leurs données dispersées dans plusieurs appareils, applications et services. La gestion et le contrôle de ses données sont de plus en plus difficiles. Dans cette thèse, nous adoptons le point de vue selon lequel l'utilisateur devrait se voir donner les moyens de récupérer et d'intégrer ses données, sous son contrôle total. À ce titre, nous avons conçu un système logiciel qui intègre et enrichit les données d'un utilisateur à partir de plusieurs sources hétérogènes de données personnelles dans une base de connaissances RDF. Le logiciel est libre, et son architecture innovante facilite l'intégration de nouvelles sources de données et le développement de nouveaux modules pour inférer de nouvelles connaissances. Nous montrons tout d'abord comment l'activité de l'utilisateur peut être déduite des données des capteurs de son téléphone intelligent. Nous présentons un algorithme pour retrouver les points de séjour d'un utilisateur à partir de son historique de localisation. À l'aide de ces données et de données provenant d'autres capteurs de son téléphone, d'informations géographiques provenant d'OpenStreetMap, et des horaires de transports en commun, nous présentons un algorithme de reconnaissance du mode de transport capable de retrouver les différents modes et lignes empruntés par un utilisateur lors de ses déplacements. L'algorithme reconnaît l'itinéraire pris par l'utilisateur en retrouvant la séquence la plus probable dans un champ aléatoire conditionnel dont les probabilités se basent sur la sortie d'un réseau de neurones artificiels. Nous montrons également comment le système peut intégrer les données du courrier électronique, des calendriers, des carnets d'adresses, des réseaux sociaux et de l'historique de localisation de l'utilisateur dans un ensemble cohérent. Pour ce faire, le système utilise un algorithme de résolution d'entité pour retrouver l'ensemble des différents comptes utilisés par chaque contact de l'utilisateur, et effectue un alignement spatio-temporel pour relier chaque point de séjour à l'événement auquel il correspond dans le calendrier de l'utilisateur. Enfin, nous montrons qu'un tel système peut également être employé pour faire de la synchronisation multi-système/multi-appareil et pour pousser de nouvelles connaissances vers les sources. Les résultats d'expériences approfondies sont présentés
Typical Internet users today have their data scattered over several devices, applications, and services. Managing and controlling one's data is increasingly difficult. In this thesis, we adopt the viewpoint that the user should be given the means to gather and integrate her data, under her full control. In that direction, we designed a system that integrates and enriches the data of a user from multiple heterogeneous sources of personal information into an RDF knowledge base. The system is open-source and implements a novel, extensible framework that facilitates the integration of new data sources and the development of new modules for deriving knowledge. We first show how user activity can be inferred from smartphone sensor data. We introduce a time-based clustering algorithm to extract stay points from location history data. Using data from additional mobile phone sensors, geographic information from OpenStreetMap, and public transportation schedules, we introduce a transportation mode recognition algorithm to derive the different modes and routes taken by the user when traveling. The algorithm derives the itinerary followed by the user by finding the most likely sequence in a linear-chain conditional random field whose feature functions are based on the output of a neural network. We also show how the system can integrate information from the user's email messages, calendars, address books, social network services, and location history into a coherent whole. To do so, it uses entity resolution to find the set of avatars used by each real-world contact and performs spatiotemporal alignment to connect each stay point with the event it corresponds to in the user's calendar. Finally, we show that such a system can also be used for multi-device and multi-system synchronization and allow knowledge to be pushed to the sources. We present extensive experiments
Styles APA, Harvard, Vancouver, ISO, etc.
15

Goudreau, Alain. « Perceptions des gestionnaires sur les impacts de l'informatique utilisateur et sur les connaissances informatiques requises pour son encadrement ». Mémoire, Université de Sherbrooke, 1995. http://hdl.handle.net/11143/8224.

Texte intégral
Résumé :
L'Informatique Utilisateur (IU) a connu un développement remarqué au cours des dix dernières années. Cette expression désigne le développement et/ou l'utilisation d'applications informatiques conçues par des non-spécialistes en informatique. Plusieurs recherches ont permis d'identifier les facteurs pouvant contribuer au succès de l'IU, notamment les connaissances possédées par les individus qui pratiquent l'IU. Il apparaît assez évident que des utilisateurs de logiciels tels qu'un chiffrier électronique doivent posséder certaines connaissances pour exploiter efficacement ces logiciels. Mais d'autres chercheurs ont également souligné le rôle important que jouent leurs supérieurs hiérarchiques dans l'encadrement de la pratique de l'IU. Selon eux, ces gestionnaires doivent également acquérir des connaissances pour assumer cette responsabilité. La présente étude vise à mieux comprendre la nature de ces connaissances. Pour atteindre nos objectifs, un questionnaire a été distribué à 845 gestionnaires d'une grande organisation québécoise. Au total, 278 questionnaires valides ont été compilés pour l'analyse finale. Les résultats démontrent que, pour l'ensemble des thèmes touchés par l'étude, les gestionnaires jugent leur niveau de connaissances inférieur à l'importance qu'ils y accordent. Les gestionnaires considèrent particulièrement important de comprendre la pertinence d'une demande de formation d'un utilisateur ainsi que d'être en mesure d'en identifier les retombées. D'un autre côté, l'amélioration de la présentation du travail semble être l'impact le plus important considéré par les supérieurs hiérarchiques. À l'opposé, le problème du manque de documentation semble être celui le plus souvent observé dans l'organisation. Le besoin potentiel en formation concernant les standards à instaurer afin d'assurer un environnement efficace à la pratique de l'IU est celui que les supérieurs hiérarchiques ont exprimé comme étant le plus important. Finalement, aucune relation n'a pu être établie entre les connaissances des supérieurs hiérarchiques et leur perception des bénéfices et des problèmes de l'IU.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Lini, Sami. « L'anticipation et sa représentation dans les interfaces homme-système en aéronautique : L'anticipation et sa représentation dans les interfaces homme-système en aéronautique ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00876071.

Texte intégral
Résumé :
L'aéronautique civile commerciale poursuit l'objectif du déplacement de biens ou de personnes, par les airs, en maintenant un niveau optimal de sécurité. Depuis plus de trente ans, en dépit de cadres normatifs de plus en plus stricts et d'automatismes de plus en plus performants, le rapport entre performance visée et risque encouru ne progresse plus.Le facteur humain constitue un levier d'action majeur pour franchir ce plancher de verre. Dans le cadre contraint de l'aéronautique, la conception d'outils visant à assister la cognition des pilotes est ainsi une direction d'avenir. L'anticipation a été identifiée comme un processus central dans la gestion des ressources cognitives. Dans une démarche de cognitique, nous avons ainsi entrepris la conception d'un outil d'aide à l'anticipation en impliquant des pilotes à chaque étape des développements.D'une analyse de l'activité sur la base d'enregistrements en cockpit et d'entretiens, nous avons construit un modèle de l'activité réelle des pilotes lors de la descente et l'approche sur l'aéroport de Rio de Janeiro. L'étude bibliographique mit en lumière des points critiques relevant de l'anticipation et nécessitant une expérimentation préliminaire. Les résultats expérimentaux conciliés à nos hypothèses de compréhension de l'anticipation achevèrent le cahier des charges du cœur fonctionnel de notre outil d'aide à l'anticipation. Un algorithme de planification dynamique exploitant notre modèle de l'activité fut conçu et implémenté au sein d'ASAP (Anticipation Support for Aeronautical Planning) le démonstrateur de concept industriel de Thales Avionics. 36 pilotes civils commerciaux participèrent enfin à son évaluation en simulateur.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Willamowski, Jutta. « Modélisation de tâches pour la résolution de problèmes en coopération système-utilisateur ». Grenoble 1, 1994. http://www.theses.fr/1994GRE10056.

Texte intégral
Résumé :
Un systeme cooperatif d'aide a la resolution de problemes doit etre capable d'un cote de resoudre des problemes de la maniere la plus autonome et automatique possible et permettre de l'autre a son utilisateur d'intervenir ponctuellement dans le processus de resolution ou meme de le diriger completement. Pour permettre au systeme et a son utilisateur de cooperer, le raisonnement du systeme doit etre facilement comprehensible par l'utilisateur et, inversement, l'utilisateur doit pouvoir aisement communiquer son propre raisonnement au systeme. Pour cela, une modelisation des connaissances et du processus de resolution des problemes par planification hierarchique est proposee. Cette modelisation repose essentiellement sur le concept de tache. Une tache permet de representer un probleme a resoudre sur differents niveaux d'abstraction et de lui associer une strategie de resolution par decomposition recursive en sous-taches de plus en plus elementaires. Une telle modelisation permet en meme temps: - de faire gerer efficacement le processus de resolution par le systeme. La planification hierarchique permet d'alterner des phases de planification et d'execution. De cette facon, la strategie appliquee peut etre adaptee de facon opportuniste a l'etat de resolution courant. - d'etablir une cooperation entre le systeme et son utilisateur. Cette cooperation peut s'etablir sur chacun des niveaux d'abstraction et de decomposition introduit dans le raisonnement; l'utilisateur peut intervenir dans le processus de resolution, prendre ou rendre le controle au systeme. Le modele propose a donne lieu a un outil generique permettant de representer les connaissances de resolution de problemes et de les exploiter en cooperation avec l'utilisateur. Cet outil, baptise scarp, a ete experimente et valide par differentes applications. Deux exemples, en traitement du signal et en analyse de donnees, sont presentes dans ce document
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lemaire, Florence. « Une structure terminologique pour améliorer l'intelligibilité d'une base de connaissances scientifiques ». Grenoble INPG, 1996. http://www.theses.fr/1996INPG0171.

Texte intégral
Résumé :
Les grandes bases de connaissances scientifiques sont elaborees par une communaute de chercheurs au fur et a mesure de l'avancee des recherches. Chaque chercheur modelise son savoir de maniere homo-gene avec le contenu existant de la base et de facon a ce que les autres chercheurs puisse le comprendre. Ce processus incremental et concourant souleve le probleme de l'intelligibilite du contenu d'une base pour un specialiste n'ayant pas participe a son elaboration. Notre travail etudie un role de la terminologie dans les processus de modelisation et de consultation. Trois types d'information necessaires a la comprehension des connaissances representees ont ete identifies: definition de la terminologie, justification de la validite scientifique des connaissances et explication des choix de modelisation effectues. Pour que ces trois types d'informations soient accessibles a partir des connaissances formalisees, nous proposons un environnement informatique compose de quatre bases: une base de connaissances, une base de modelisation, une base de textes et une base terminologique, silex. Cette derniere contient la definition de l'ensemble du vocabulaire utilise dans l'environnement et constitue l'interface entre le vocabulaire de l'utilisateur et le contenu de la base de connaissances et de la base de textes. Par ailleurs, silex permet une modelisation plus homogene car elle favorise un accord entre les concepteurs d'une communaute sur l'acception des termes utilises. Enfin, nous decrivons la structure et le contenu d'un prototype de silex realise dans le cadre de la biologie moleculaire
Styles APA, Harvard, Vancouver, ISO, etc.
19

Lini, Sami. « L’anticipation et sa représentation dans les interfaces homme-système en aéronautique : L’anticipation et sa représentation dans les interfaces homme-système en aéronautique ». Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14843/document.

Texte intégral
Résumé :
L’aéronautique civile commerciale poursuit l’objectif du déplacement de biens ou de personnes, par les airs, en maintenant un niveau optimal de sécurité. Depuis plus de trente ans, en dépit de cadres normatifs de plus en plus stricts et d’automatismes de plus en plus performants, le rapport entre performance visée et risque encouru ne progresse plus.Le facteur humain constitue un levier d’action majeur pour franchir ce plancher de verre. Dans le cadre contraint de l’aéronautique, la conception d’outils visant à assister la cognition des pilotes est ainsi une direction d’avenir. L’anticipation a été identifiée comme un processus central dans la gestion des ressources cognitives. Dans une démarche de cognitique, nous avons ainsi entrepris la conception d’un outil d’aide à l’anticipation en impliquant des pilotes à chaque étape des développements.D’une analyse de l’activité sur la base d’enregistrements en cockpit et d’entretiens, nous avons construit un modèle de l’activité réelle des pilotes lors de la descente et l’approche sur l’aéroport de Rio de Janeiro. L’étude bibliographique mit en lumière des points critiques relevant de l’anticipation et nécessitant une expérimentation préliminaire. Les résultats expérimentaux conciliés à nos hypothèses de compréhension de l’anticipation achevèrent le cahier des charges du cœur fonctionnel de notre outil d’aide à l’anticipation. Un algorithme de planification dynamique exploitant notre modèle de l’activité fut conçu et implémenté au sein d’ASAP (Anticipation Support for Aeronautical Planning) le démonstrateur de concept industriel de Thales Avionics. 36 pilotes civils commerciaux participèrent enfin à son évaluation en simulateur
Civil aviation pursues the objective of moving people or goods through the air with an optimal level of safety. For more than thirty years, despite a stricter and stricter regulatory framework and highly reliable automation, the ratio between performance and acceptable risk is not improving anymore.Human factors are a major action lever to break this glass floor. In the constrained context of aviation, designing tools aiming at assisting pilots’ cognition is thus a promising direction. Anticipation has been identified central in the process of cognitive resources management. In a human factors engineering approach, we undertook the design of an anticipation support tool involving pilots at each step of the development.From an activity analysis performed on the basis of in-cockpit recordings and interviews we constructed a model of the actual pilots’ activity during the descent and approach phases on Rio de Janeiro airport. The state of the art highlighted the key elements related to anticipation which could take benefit of a preliminary experiment. Experimental results brought together with our hypotheses about how anticipation works completed the requirements of the functional core of our anticipation support tool. A dynamic planning algorithm was then designed and implemented within ASAP (Anticipation Support for Aeronautical Planning), Thales Avionics’ proof of concept. 36 commercial pilots took part to its evaluation in a simulated environment
Styles APA, Harvard, Vancouver, ISO, etc.
20

Garrot, Élise. « Plate-forme support à l'interconnexion de communautés de pratique ( ICP ) : application au tutorat avec TE-Cap ». Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0078/these.pdf.

Texte intégral
Résumé :
Ces travaux de recherche se situent dans le domaine des Environnements Informatiques pour l’Apprentissage Humain (EIAH) et s’intéressent plus spécifiquement au tutorat, activité fondamentale dans les formations mais pourtant encore aujourd’hui mal définie et peu institutionnalisée. Partant d’une analyse des besoins des tuteurs, à partir d’une étude théorique et d’une étude de terrain, nous proposons de traiter cette problématique en concevant la plate-forme TE-Cap (« Tutoring Experience Capitalization »), fondée sur le concept de Communautés de Pratique (CoP). Nous adoptons une démarche de conception co-adaptative qui tend à faire évoluer la plate-forme en même temps que se précisent les besoins. Cette plate-forme a pour objectif de supporter les échanges, la confrontation et la mutualisation des expériences et des pratiques de ses utilisateurs afin de les amener à développer, de manière informelle et créative par l’entraide et la collaboration, des compétences et expertises, et à créer de nouvelles approches pour résoudre des problèmes. Construite sur la base d’un modèle d’Interconnexion de CoPs (ICP), proposé comme extension du concept de Constellation de CoPs (CCP), la plate-forme utilise une classification des connaissances s’inspirant de principes du Knowledge Management et du Web 2. 0. Ce modèle d’ICP est appliqué au tutorat dans la plate-forme TE-Cap mais concerne tout ensemble d’acteurs exerçant une même activité. Il vise à favoriser la création et le partage de connaissances à la fois dans le contexte local de pratique des acteurs (l’institution ou l’entreprise) et au niveau global de l’activité. L’interface homme-machine représente la base de connaissances […]
Our research work related to Technology Enhanced Learning (TEL) is more specifically turned towards tutoring, a fundamental activity in education. However, the existing definitions of tutoring are unsatisfactorlly and this practice is very poorly institutionalized. Starting from the analysis of the tutors' needs defined during a theoretical and a ground study, we suggest designing the TE-Cap ("Tutoring Experience Capitalization ») platform, based on the concept of Communities of Practice (CaP). We adapt a co-adaptive design approach which allow us to develop the platform little by little, as needs become clearer. This platform enables the tutors to exchange and confront there experiences. They are thus brought to develop skills and expertise, in an informal and creative way by mutual aid and collaboration. Thes exchanges will also enable the tutors to find new approaches to solve problems. Built on a madel of lnterconnection of CaPs (ICP) and proposed as an extension of the concept of Constellation of CaPs (CCP), the platform uses a knowledge classification inspired by the Knowledge Management and Web 2. 0 principles. This ICP madel is applied ta tutoring in the TE-Cap platform but can also be applied to any set of actors practicing the same activity. Our system is made to accelerate knowledge creation in the actors' local context (the education institution or the company) as well as at a globallevel of the activity. The human-machine interface displays the knowledge base in a spatial and interactive way so as to allaw the users to add and retrieve knowledge in an efficient way. This is possible thanks to an indexation model adapted to the identified community. [. . . ]
Styles APA, Harvard, Vancouver, ISO, etc.
21

Silue, Siaka. « Une contribution pour l'aide à la gestion d'un système à base de connaissance ». Compiègne, 1998. http://www.theses.fr/1998COMP1099.

Texte intégral
Résumé :
Les travaux de cette thèse visent à améliorer l'interaction homme-machine lors des phases de développement et d'exploitation d'un SBC, AIDE. L'approche adoptée a pris en compte deux perspectives essentielles : celle du système à base de connaissance et celle des utilisateurs. De façon concrète, cette thèse a abouti à l'émergence d'outils d'aide à la construction et à l'utilisation de SBC. Des outils de spécification et de visualisation des connaissances couvrent la phase d'élaboration du SBC. L'outil de spécification permet de représenter les primitives du langage de représentation du SBC. Quant à l'outil de visualisation, il présente les connaissances du domaine selon divers points de vue et visualise les caractéristiques des connaissances de contrôle. La phase d'exploitation du SBC est assistée par les outils de formulation de requêtes et d'inspection de cas précédent. L'outil de formulation de requêtes introduit en particulier la notion d'interrogation portant sur des collections de caractéristiques et les notions d'attributs et d'annotations dans les explications. L'outil d'inspection de cas permet une recherche dirigée soit par les données, soit par les résultats. L'un des aspects essentiels de cet outil est que la recherche des cas précédents partageant des caractéristiques abstraites communes avec un cas présent est basée sur l'algorithme de recouvrement minimal.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Zanello, Marie-Laure. « Contribution à la connaissance sur l'utilisation et la gestion de l'interface multimodale ». Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10139.

Texte intégral
Résumé :
Dans le cadre de l'interaction homme-machine multimodale, le presuppose de base est que la communication humaine est multimodale et efficace, et qu'il doit donc en etre de meme pour ce cas particulier d'interaction. On peut cependant se demander si les modalites que l'on cherche a integrer dans les interfaces correspondent a une potentialite humaine, si elles peuvent etre mises en uvre par l'utilisateur, dans quelle mesure, et surtout si elles augmentent ou non l'efficacite de l'interaction. L'objectif de ce travail est donc d'etudier, par le biais de deux experiences et de leur analyse comparative avec une troisieme, le comportement d'utilisateurs potentiels d'interfaces multimodales. Nos resultats montrent, entre autres, une utilisation spontanee et simple de la multimodalite ; un apprentissage est donc necessaire pour une utilisation performante et complexe de ces nouvelles possibilites d'interaction. Nous avons pu aussi observer une interdependance entre le type de tache a realiser et l'utilisation d'une modalite ou d'une autre, ou encore l'interet de la multimodalite comme moyen de repousser les situations bloquantes.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Ltifi, Hela. « Démarche centrée utilisateur pour la conception de SIAD basés sur un processus d'Extraction de Connaissances à partir de Données : application à la lutte contre les infections nosocomiales ». Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2011. http://tel.archives-ouvertes.fr/tel-00630296.

Texte intégral
Résumé :
Ce mémoire contribue au domaine de l'interaction homme-machine (IHM), en proposant un cadre méthodologique global en vue de la conception et la réalisation de systèmes interactifs d'aide à la décision basés sur l'extraction de connaissances à partir de données (SIAD/ECD). Dans ce travail, nous mettons l'accent sur les aspects humain et itératif du développement des SIAD, et en tenant compte des spécificités des systèmes d'ECD. Le cadre méthodologique proposé consiste à étendre les activités du processus unifié sous l'angle de l'IHM pour le développement des différents modules d'un SIAD/ECD. Cette méthodologie, nommée processus unifié étendu, a été appliquée en vue de démontrer ou valider ses principes fondateurs sur une étude de cas dans le domaine médical, relative à la prise de décision dynamique pour la lutte contre les infections nosocomiales (SIADDM/ECD) dans un service de réanimation d'un hôpital situé à Sfax, Tunisie. Une évaluation globale de la démarche suivie d'un ensemble de perspectives de recherche termine le mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Charfi, Selem. « Définition et test d'un outil d'aide à l'évaluation de systèmes à architecture à base d'agent, par approche à base de connaissances ». Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2013. http://tel.archives-ouvertes.fr/tel-00847959.

Texte intégral
Résumé :
Ce mémoire contribue à la thématique de l'évaluation des interfaces utilisateur. Il se base sur deux contributions pour l'évaluation de ces interfaces. La première consiste en un Framework se basant sur trois différentes techniques d'évaluation (le mouchard électronique, le questionnaire et l'inspection des règles ergonomiques). La seconde consiste en deux ensembles de composants graphiques pour la composition d'interfaces graphiques avec les environnements de développement intégral du type WYSIWYG. Le premier ensemble vise à inspecter la présentation statique de l'interface lors de la conception de cette dernière. Cette inspection s'effectue localement par le composant graphique lui-même par rapport à un ensemble de règles ergonomiques. Le second ensemble consiste à l'évaluation de l'interface utilisateur en analysant l'interaction entre l'utilisateur et l'interface. Cet ensemble de composants opère avec un mouchard dédié à cet usage. Une évaluation de ces deux contributions ainsi que des perspectives de recherche concluront ce présent mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Grzesiak, Frédéric. « Représentation des connaissances et techniques d'inférence pour le maniement d'objets graphiques : application au Système-Expert SYNOP ». Valenciennes, 1987. https://ged.uphf.fr/nuxeo/site/esupversions/fd5e5639-ec92-4d3d-96e8-98f6c14c5743.

Texte intégral
Résumé :
Réalisation d'un outil système expert capable d'appliquer sur une image de surveillance donnée l'ensemble des spécifications graphiques contenues dans ses bases de connaissances. Après la validation du moteur d'inférence, divers travaux ont été réalisés pour préparer l'utilisation effective du système
Styles APA, Harvard, Vancouver, ISO, etc.
26

Desfriches, Doria Orélie. « La classification à facettes pour la gestion des connaissances métier : méthodologie d'élaboration de FolkClassifications à facettes ». Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-01015606.

Texte intégral
Résumé :
Tout d'abord, nous abordons les problématiques liées à l'organisation et à la gestion des connaissances ainsi que les principes présidant à l'élaboration des classifications à facettes. Nous proposons ensuite une synthèse des méthodes existantes d'élaboration de classifications à facettes. Nous poursuivons en réalisant une analyse de l'impact des types de Systèmes d'Information sur l'activité de gestion de l'information. Ce faisant, nous produisons une analyse de l'activité inspirée de la Théorie de l'Activité, et influencée par les travaux de la psychologie du travail et de l'ergonomie cognitive. Le prototype Hypertagging développé dans le cadre du projet Miipa-Doc fondé sur le tagging des utilisateurs et structuré par les principes de la classification à facettes est présenté. Notre expérimentation sur l'élaboration de classifications à facettes pour la gestion des documents de travail est détaillée. Enfin, nous exposons notre méthodologie d'élaboration de FolkClassifications à facettes pour la gestion des connaissances métier. Elle vise à appuyer une démarche de gestion des connaissances sur la gestion personnelle de l'information
Styles APA, Harvard, Vancouver, ISO, etc.
27

Desfriches, Doria Orélie. « La classification à facettes pour la gestion des connaissances métier : méthodologie d’élaboration de FolkClassifications à facettes ». Thesis, Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0903/document.

Texte intégral
Résumé :
Tout d’abord, nous abordons les problématiques liées à l’organisation et à la gestion des connaissances ainsi que les principes présidant à l’élaboration des classifications à facettes. Nous proposons ensuite une synthèse des méthodes existantes d’élaboration de classifications à facettes. Nous poursuivons en réalisant une analyse de l’impact des types de Systèmes d’Information sur l’activité de gestion de l’information. Ce faisant, nous produisons une analyse de l’activité inspirée de la Théorie de l’Activité, et influencée par les travaux de la psychologie du travail et de l’ergonomie cognitive. Le prototype Hypertagging développé dans le cadre du projet Miipa-Doc fondé sur le tagging des utilisateurs et structuré par les principes de la classification à facettes est présenté. Notre expérimentation sur l’élaboration de classifications à facettes pour la gestion des documents de travail est détaillée. Enfin, nous exposons notre méthodologie d’élaboration de FolkClassifications à facettes pour la gestion des connaissances métier. Elle vise à appuyer une démarche de gestion des connaissances sur la gestion personnelle de l’information
We address Knowledge Organization and Knowldege Management general issues and we present the basic principles for the development of faceted classifications. Then we introduce a synthesis of existing methods to develop this kind of classification. Next we propose an analysis of effects of Information Systems on information management activities. By doing this, we produce an analysis of the concept of activity inspired by Activity Theory, occupational psychology and french ergonomics. A presentation of Hypertagging prototype developed in the frame of Miipa-Doc research project, based on users tagging and structured by faceted classification principles, is provided. Our experiment about generating faceted classification for document management activities is detailed. Finally, we expose our method for the development of faceted classification for Knowledge Management purposes in the context of specific trades. This Knowledge Management approach is incorporated in Knowledge Organization activities
Styles APA, Harvard, Vancouver, ISO, etc.
28

Adam, Sébastien. « Interprétation de Documents Techniques : des Outils à leur Intégration dans un Système à Base de Connaissances ». Phd thesis, Université de Rouen, 2001. http://tel.archives-ouvertes.fr/tel-00671320.

Texte intégral
Résumé :
Les travaux présentés dans ce mémoire abordent la problématique de l'interprétation de documents techniques. Dans ce contexte, ils se trouvent à la confluence de différentes thématiques de recherche telles que le traitement du signal et des images, la reconnaissance de formes, l'intelligence artificielle, la communication Homme/Machine et l'ingénierie des connaissances. En effet, si ces domaines scientifiques diffèrent dans leurs fondements, ils sont complémentaires et leurs apports respectifs sont indispensables pour la conception d'un système d'interprétation fiable et adaptable. Dans ce contexte pluridisciplinaire, le mémoire est organisé en deux parties. La première partie propose une méthodologie originale permettant la détection et la reconnaissance de formes (caractères et symboles) multi-orientées et multi-échelles. L'approche adoptée est basée sur la transformée de Fourier-Mellin. Elle permet la reconnaissance de formes isolées, mais aussi, dans une certaine mesure, de formes connectées. Son utilisation autorise en outre l'estimation des paramètres de mouvements des formes. Les outils développés sont évalués et comparés sur différentes bases de caractères et les résultats obtenus sont tout à fait compétitifs au regard des approches de la littérature. La seconde partie de ce mémoire aborde quant à elle la problématique de l'interprétation de documents techniques avec un point de vue orienté vers l'ingénierie des connaissances. Les réflexions proposées dans ce cadre permettent selon nous de montrer la faisabilité et la pertinence d'une démarche orientée connaissances pour la conception d'un système d'interprétation. Elles ont donné lieu à une implémentation conduisant à un système nommé NATALI v2. Une représentation explicite des connaissances, une architecture logicielle à base d'agents ainsi que différentes interfaces homme-machine offrent une bonne adaptabilité et une grande souplesse au système.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Nóbrega, Germana Menezes da. « Une approche dialectique à la formation de théories : aspects conceptuels, formels et pragmatiques dans le cadre de l'apprentissage humain ». Montpellier 2, 2002. http://www.theses.fr/2002MON20096.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Ploix, Damien. « Elaboration, réalisation et évaluation d'un environnement de programmation analogique ». Paris 8, 1999. http://www.theses.fr/1999PA081532.

Texte intégral
Résumé :
Cette these presente une methode originale de creation et d'utilisation de representations analogiques de programmes, notre environnement de programmation zeugma qui implemente cette methode et son evaluation par la presentation de representations analogiques de pro♭ grammes. Le systeme zeugma permet a l'utilisateur de construire ses propres representations de programmes, utilisant les analogies ou les metaphores qui lui sont familiere, de les experimen♭ ter sur des programmes qu'il a ecrits ou qui lui sont inconnus, puis de les utiliser comme nou♭ velles composantes d'un environnement de programmation. Notre methode de construction de representations analogiques de programme considere la mise en relation de caracteristiques des programmes, decrivant des aspects de leur composi♭ tion ou des aspects de leur comportement, avec des caracteristiques decrivant les representa♭ tions. Ainsi, des particularites syntaxiques, les flots de controle ou de donnees, les donnees ma♭ nipulees ou le code execute peuvent determiner des aspects tels que la forme, le placement, la taille ou encore la couleur d'une representation graphique analogique. La selection des caracte♭ ristiques utilisees s'effectuera en fonction du choix de son utilisation : par exemple la decou♭ verte de programmes inconnus, la recherche de parties necessitant une optimisation ou encore l'animation d'algorithmes. Nous presentons des exemples de representations analogiques illus♭ trant ces trois utilisations. Zeugma est l'unique systeme de visualisations de programmes qui implemente une me♭ thode de creation de representations analogiques permettant son utilisation autant comme outil de visualisation d'algorithme et de programmes que comme environnement de programmation integrant des representations graphiques. La perspective de notre travail est la construction d'un outil de programmation, integrant des representations analogiques, adapte aux interfaces homme - machines en developpement
This thesis presents an original method for the specification of analogical program representations, our programming environment. Zeugma, which is built upon this method and its evaluation through the presentations of some examples of analogical program representations. Zeugma offers users the opportunity to build their own program representations using their own familiar analogies or metaphors, to experiment them on programs and to use them as new components of a programming environment. Our method for analogical program representation specification considers the mapping, following analogical links, between aspects of the program's composition or behavior and characteristics describing representations. Thus, source code, control or data flow or run-time elements will determine characteristics of the generated represetation such as color, position, size, orientation and animation of objects present in a graphical scene. The selection of the characteristics used in a particular representation will depend on intended use as, for instance, giving help during the discovery of an unknow program, search for optimisation or algorithm animation. We will present examples of analogical representations illustrating these uses. Zeugma is the only program visualization system implementing a method to create analogical representations useful as well for program and for algorithm animation as for graphical programming environment. This research aims toward the construction of an integrated analogical programming environment adapted to interfaces actually under development
Styles APA, Harvard, Vancouver, ISO, etc.
31

Cortes, Buitrago Gloria. « Simulations et contrôle pédagogique : architectures logicielles réutilisables ». Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10165.

Texte intégral
Résumé :
Cette these porte sur les environnements permettant aux formateurs de developper des simulations pedagogiques. La premiere partie presente un etat de l'art de ces environnements, au regard des differentes taches identifiees par le modele mars (modele, associations, representation, scenario). Elle montre notamment l'interet d'une separation nette entre la simulation proprement dite et le controle pedagogique, ce qui permet d'utiliser differentes approches pedagogiques sur une simulation. Cette etude theorique est completee par une experimentation que nous avons menee avec des enseignants, dans le cadre du projet europeen ariadne, sur l'outil oasis cree par l'equipe arcade sur la base du modele mars. Ces travaux montrent que les outils existants facilitent les taches de l'auteur, mais que la distance cognitive entre ses abstractions et les abstractions proposees par les outils est encore trop grande. Partant de ce constant, l'ideal (utopique) serait d'offrir un outil adaptable au domaine particulier de l'auteur. Adoptant un point de vue genie logiciel, nous proposons dans la deuxieme partie de cette these une solution permettant a un developpeur de construire rapidement des outils adaptes. Cette solution s'appuie sur des techniques de reutilisation basees sur les architectures, les frameworks et les patrons. Nous presentons un framework que nous avons developpe sur la base du modele mars. Nous avons utilise ce framework pour construire une version d'oasis, ainsi que l'outil fenix dedie a la realisation de simulations basees sur des modeles mathematiques simples. La troisieme partie concerne la mise en uvre effective de la separation entre simulation et controle pedagogique preconisee plus haut. Nous proposons argos, une architecture de communication entre simulations et outils de controle pedagogique. Un sous-ensemble d'argos a servi a l'elaboration d'un prototype pour le controle pedagogique de simulations a distance.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Hacker, Janine. « Discovering knowledge actor roles in enterprise social network : towards a better understanding of knowledge-in-practice ». Thesis, Mulhouse, 2017. http://www.theses.fr/2017MULH9113.

Texte intégral
Résumé :
Les réseaux sociaux d'entreprise (RSE) sont apparus comme une technologie importante pour la gestion des connaissances. Les recherches précédentes suggèrent différents rôles liés à la gestion des connaissances dans les réseaux organisationnels informels hors ligne. D'autre part, le thème des rôles utilisateur reçoit beaucoup d'attention dans la recherche sur les médias sociaux publics. Concernant les RSE, les différents rôles d'utilisateurs ne sont pas bien compris. Face à cette lacune, cette thèse cherche à répondre à la question de recherche suivante : Quels rôles d'acteurs du savoir émergent des interactions sur les plates-formes RSE et comment ces rôles peuvent-ils être découverts ?Tout d'abord, cette thèse dérive un modèle de référence de rôle de l'acteur du savoir basé sur la littérature. Ensuite, un ensemble de données unique d'un grand cabinet australien de services professionnels est utilisé dans une étude de cas approfondie. En comparant le modèle de référence basé sur la littérature et les rôles découverts au sein de l'étude de cas, un cadre intégré de rôle des acteurs du savoir RSE apparaît.Cette thèse contribue au flux d'analyse de données RSE en développant un ensemble d’indicateurs pour conceptualiser le comportement de l'utilisateur sur la base d'une approche quantitative. De plus, cette thèse ajoute à l'ensemble de la littérature sur les rôles sociaux dans les espaces sociaux en ligne en proposant une théorie des rôles RSE acteur du savoir. En ce qui concerne les implications pour la pratique, une notion de rôle utilisateur RSE aide les entreprises à reconnaître les différentes façons dont les utilisateurs contribuent aux RSE
Enterprise Social Networks (ESN) have emerged as an important technology for knowledge management. Prior research suggests different knowledge management-related roles in offline informal organisational networks. On the other hand, the topic of user roles receives a lot of attention in social media research with regards to public online social spaces. As for ESN, it is not clear to what extent platform users engage in different use practices and how combinations of use practices relevant in the context of knowledge work contribute to different user roles, that is, ESN knowledge actor roles. Addressing this gap, this thesis seeks to answer the following research question: Which knowledge actor roles emerge from interactions on ESN platforms and how can these roles be discovered?As a first step, this thesis derives a literature-based ESN knowledge actor role reference model by drawing on knowledge management research, organisation science, and social media research. Next, a unique dataset from a large Australian professional services firm is utilised within an in-depth case study. Contrasting the literature-based reference model and the roles discovered within the case study, an integrated ESN knowledge actor role framework is developed.This thesis contributes to the stream of ESN data analytics by developing a set of metrics to conceptualise user behaviour based on a quantitative approach. Secondly, it adds to the body of literature on social roles in online social spaces by proposing a theory of ESN knowledge actor roles. Concerning implications for practice, a notion of ESN user roles helps companies to recognise the different ways in which users contribute to ESN
Styles APA, Harvard, Vancouver, ISO, etc.
33

Kolski, Christophe. « Contribution à l'ergonomie de conception des interfaces graphiques homme-machine dans les procédés industriels : application au système expert SYNOP ». Valenciennes, 1989. https://ged.uphf.fr/nuxeo/site/esupversions/48d8d47d-0900-46b2-8537-b0a89714a0d9.

Texte intégral
Résumé :
La thèse concerne le développement et la validation du système expert SYNOP pour l'évaluation ergonomique et l’amélioration de vues graphiques exploitées dans les salles de contrôle de procédés industriels. SYNOP utilise un moteur d'inférence du premier ordre et les notions de frame et de réseau sémantique pour la représentation des connaissances. Il est écrit en langage LISP. Ses bases contiennent des concepts ergonomiques de présentation d'information sur écran graphique. Le module d'évaluation de SYNOP, ainsi que ses interfaces expert et utilisateur, sont détaillés. Les principes d'élaboration et de validation des bases de connaissances ergonomiques de SYNOP sont expliqués. Le mémoire décrit également la contribution du système expert SYNOP à l’évaluation et l’amélioration d'une interface graphique dans un contexte industriel. Le mémoire se termine par des perspectives d'évolution de SYNOP
The doctoral thesis concerns the development and validation of the SYNOP expert system for the ergonomic evaluation and improvement of graphic views used in control rooms of industrial processes SYNOP uses a first-order inference engine and the concepts of frame and semantic network for knowledge representation. It is written in LISP language. Its knowledge bases contain ergonomic concepts for information presentation on graphic screens. Its evaluation module, as well as its expert and user interfaces, are detailed. The principles for developing and validating its ergonomic knowledge bases are explained. The thesis also describes the contribution of the SYNOP expert system to the evaluation and improvement of a graphical user interface in an industrial context. The thesis ends with several research perspectives
Styles APA, Harvard, Vancouver, ISO, etc.
34

El, Sarraj Lama. « Exploitation d'un entrepôt de données guidée par des ontologies : application au management hospitalier ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4331.

Texte intégral
Résumé :
Cette recherche s'inscrit dans le domaine de la personnalisation d'Entrepôt de Données (ED) et concerne l'aide à l'exploitation d'un ED. Nous intéressons à l'assistance à apporter à un utilisateur lors d'une analyse en ligne, dans son utilisation de ressources d'exploitation existantes. Le domaine d'application concerné est la gestion hospitalière, dans le cadre de la nouvelle gouvernance, et en se limitant au périmètre du Programme de Médicalisation des Systèmes d'Information (PMSI). Cette recherche a été supportée par l'Assistance Publique des Hôpitaux de Marseille (APHM). L'approche retenue pour développer une telle assistance à l'utilisateur d'ED est sémantique et guidée par l'usage d'ontologies. Le système d'assistance mettant en oeuvre cette approche, nommé Ontologies-based Personalization System (OPS), s'appuie sur une Base de Connaissances (BC) exploitée par un moteur de personnalisation. La BC est composée des trois ontologies : de domaine, de l'ED et des ressources. Le moteur de personnalisation permet d'une part une recherche personnalisée de ressources d'exploitation de l'ED en s'appuyant sur le profil de l'utilisateur, et d'autre part pour une ressource particulière, une recommandation de ressources complémentaires selon trois stratégies possibles. Afin de valider nos propositions, un prototype du système OPS a été développé avec un moteur de personnalisation a été implémenté en Java et exploitant une base de connaissance constituée des trois ontologies en OWL interconnectées. Nous illustrons le fonctionnement de notre système sur trois scenarii d'expérimentation liés au PMSI et définis avec des experts métiers de l'APHM
This research is situated in the domain of Data Warehouses (DW) personalization and concerns DW assistance. Specifically, we are interested in assisting a user during an online analysis processes to use existing operational resources. The application of this research concerns hospital management, for hospitals governance, and is limited to the scope of the Program of Medicalization of Information Systems (PMSI). This research was supported by the Public Hospitals of Marseille (APHM). Our proposal is a semantic approach based on ontologies. The support system implementing this approach, called Ontology-based Personalization System (OPS), is based on a knowledge base operated by a personalization engine. The knowledge base is composed of three ontologies: a domain ontology, an ontology of the DW structure, and an ontology of resources. The personalization engine allows firstly, a personalized search of resources of the DW based on users profile, and secondly for a particular resource, an expansion of the research by recommending new resources based on the context of the resource. To recommend new resources, we have proposed three possible strategies. To validate our proposal, a prototype of the OPS system was developed, a personalization engine has been implemented in Java. This engine exploit an OWL knowledge composed of three interconnected OWL ontologies. We illustrate three experimental scenarios related to PMSI and defined with APHM domain experts
Styles APA, Harvard, Vancouver, ISO, etc.
35

Tolosa, Santiago. « Un programme interactif pour la liaison assistee de regles avec l'exterieur et la description de systemes experts ». Toulouse 3, 1988. http://www.theses.fr/1988TOU30031.

Texte intégral
Résumé :
Le travail presente dans cette these a ete developpe dans le cadre du projet arpege, destine a etudier l'adequation des techniques de type systeme expert d'aide a la decision dans le domaine agricole. Cette etude introduit l'utilisation de modules de connaissances agronomiques qui interagissent. Le modele de representation propose permet la definition et la gestion des donnees globalement par rapport aux divers modules. Il exploite des caracteristiques des langages orientes objets, ainsi que certaines caracteristiques d'extensions aux representations retrouvees dans les bases de donnees
Styles APA, Harvard, Vancouver, ISO, etc.
36

Mathieu, Bertrand. « Potacco : noeud polymorphique transparent pour l'adaptation de contenu adapté au contexte ». Phd thesis, Paris 6, 2008. https://tel.archives-ouvertes.fr/tel-00812520.

Texte intégral
Résumé :
L'accès à n'importe quel type de service, depuis n'importe quel type de terminal, en étant connecté sur n'importe quel type de réseau est devenu possible. Cependant avec la diversité des réseaux et des terminaux, l'adaptation de contenu est devenue une problématique majeure. Cette thèse définit une solution de nœud intermédiaire, dénommé Potacco pour nœud POlymorphique Transparent pour l'Adaptation de Contenu adapté au COntexte, flexible permettant l’adaptation dynamique de tout type de contenu en fonction du contexte de l'utilisateur. Ce nœud collecte et met à disposition le contexte courant, gère/coordonne les modules applicatifs et les collecteurs de contexte, permet le déploiement sécurisé de code, peut être transparent. Des démonstrateurs de ce nœud générique, intégré dans un réseau physique puis dans un réseau overlay de services et P2P constituent une preuve de concept. Des simulations et expérimentations réelles ont permis d'évaluer ces solutions
With the evolution of fixed and mobile networks, the increasing number of diversified devices, it is now possible to access any type of services, from any type of devices, being connected to any type of networks. By adding the wish of users to receive personalized contents, adapting content has become a major problem. To help to reach this goal, this thesis defines an intermediate flexible node, allowing dynamic adaptation of any type of content depending on the context of the users. This study resulted in the definition of a node architecture, called Potacco (for noeud POlymorphique Transparent pour l'Adaptation de Contenu adapté au COntexte, in French or Transparent Polymorphic node for content adaptation to the context in English) and its implementation and validation. This node: · collects and provides current context information to enable application modules to make adaptation based on such values · manages/coordinates the application modules and the context collectors (e. G. Context sensors) · enables the secured deployment of code in the node (the supplier code, but also the target node are authenticated) · may be transparent to the applications and may process data without no mean for the endpoints to detect it. Two demonstrators have been implemented as a proof of concept of this generic node being located in a physical network: as a wired/wireless gateway performing media content adaptation and as a node in an ADSL network inserting transparently the users’ context. Then, the use of that node in "overlay" networks has been the subject of a new proof of concept. Two cases were studied: the first one for the provisioning of services adapted to the user’s context in a service specific overlay network service, where a case of a personalized IPTV service is presented, and the second one related to the content adaptation of multimedia stream broadcasted on a P2P network where the Potacco node itself is a member of the P2P network. Validation by simulation and real experiments, permitted to evaluate these solutions
Styles APA, Harvard, Vancouver, ISO, etc.
37

Bourgeois, Serge. « Contribution à la conception de systèmes interactifs d'aide à l'ordonnancement dans les ateliers manufacturiers ». Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/62fb3065-e211-45f7-8fe3-99a2a22b0f8c.

Texte intégral
Résumé :
Pour faire face à l'environnement concurrentiel sans accroitre les coûts, les entreprises tentent d'augmenter leur flexibilité en mettant en œuvre de nouvelles technologies de production, et en adoptant de nouveaux modes de gestion qui exploitent les potentiels de l'informatique. La réduction des cycles de fabrication contribue à l'amélioration de la satisfaction des clients et aux économies financières. Cependant la difficulté de la gestion des ateliers de type Job-Shop comportant un grand nombre de postes de travail impose l'utilisation de systèmes d'aide à l'ordonnancement à court terme. Dans ce mémoire nous montrons les limites des systèmes d'ordonnancement actuels pour les ateliers de type Job-Shop et proposons un système interactif d'aide à l'ordonnancement s'appuyant sur l'utilisation de la simulation, d'un système à base de connaissances, et d'une interface interactive. Nous définissons les différents modèles (données, connaissances traitements interface utilisateur) et présentons d'une part la mise en œuvre et les résultats obtenus sur site industriel, et d'autre part l'évaluation d'un système mettant en œuvre une base de connaissance pour améliorer de façon interactive un plan de travail initial établi par simulation.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Gendron, Élise. « Cadre conceptuel pour l’élaboration d’indicateurs de collaboration à partir des traces d’activité ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10279/document.

Texte intégral
Résumé :
L’objectif général de ces travaux de recherche vise à faciliter les activités collaboratives médiées par un progiciel de gestion de connaissances. Plus précisément, nous souhaitons améliorer les activités collaboratives par la mise en place d’indicateurs. Nous entendons par là faciliter le déroulement ou des processus collaboratifs mis en œuvre et soutenir les réseaux sociaux au sein des activités. Pour cela, nous proposons d’observer l’activité des utilisateurs en proposant des indicateurs de collaboration calculés à partir des traces numériques d’activités. Le premier objectif de cette thèse est d’identifier ce que sont les indicateurs de collaboration en déterminant les informations qui les définissent. Pour pouvoir exploiter au mieux les indicateurs, nous proposons une classification composée de six grandes caractéristiques indépendantes qui correspondent aux éléments fondamentaux pour l’élaboration d’indicateurs de collaboration. Cette classification nous fournit des indications pour construire, modéliser et mettre en place un indicateur dans un environnement collaboratif tel que ceux que nous étudions dans le cadre du projet. De plus, cette thèse présente un framework de gestion d’indicateurs basé sur une approche centrée utilisateur. En effet, en observant l’utilisation actuelle des indicateurs dans des plateformes de gestion de contenus, nous nous sommes rendus-compte que le processus d’élaboration et d'acceptation était long et complexe. Par conséquent, lorsqu’un indicateur est en place dans un environnement et qu’il fonctionne correctement, il est intéressant de le réutiliser dans d’autres contextes. Cette réutilisation peut se faire intégralement ou partiellement. Nous proposons donc une modélisation qui prend en compte les problématiques de réutilisation ainsi que de personnalisation et d’adaptation des indicateurs en fonction des utilisateurs et/ou du contexte de l’activité. Dans notre approche, les indicateurs sont calculés à partir des traces d’activités laissées par les utilisateurs de la plate-forme. Pour faciliter la mise en place de ces indicateurs, nous avons développé un outil informatique qui va permettre d’assister les utilisateurs dans l’élaboration d’indicateurs : GINDIC (Générateur d’INDICateurs). Avec cet outil, les concepteurs vont pouvoir construire des indicateurs : leur définition, les calculs effectués sur les traces pour obtenir la valeur de l’indicateur et leur visualisation. Nous avons choisi de gérer les indicateurs à l’aide d’un système à base de règles, où les traces sont des faits, tandis que les processus de calcul des indicateurs sont des règles. Cette thèse s’est effectuée dans le cadre d’un projet ANR intitulé ProCoGeC (Progiciel Collaboratif de Gestion de Connaissances). Un langage à base de règles a été confronté aux besoins de ce projet. Il nous permet de décrire les processus de construction de l’ensemble des indicateurs issus d’un recueil des besoins. De plus, une expérimentation de l’outil a été réalisée auprès d’un des partenaires industriels du projet, client d’une plate-forme collaborative de gestion de contenus
The objective of the research carried is to facilitate collaborative activities in knowledge management software. More particularly, we aim to improve collaborative activities by the implementation of indicators. We intend thus to facilitate the progression of one or several implemented collaborative processes and to support the social networks within the activities. For that purpose, we propose to observe the users’ activity by providing collaboration indicators calculated from the digital traces of activities. The first objective of this thesis is to identify the characteristics of the collaboration indicators. In order to make the best possible use of indicators, we propose a classification composed of six main independent characteristics which correspond to the fundamental elements for the elaboration of collaboration indicators. This classification supplies us with indications to build, model and set up an indicator in a collaborative environment such as those studied in the context of the project. Moreover, this thesis presents a framework for the management of indicators based on a user-centred approach. Indeed, by observing the current use of indicators in platforms of knowledge management, we realized that the process of elaboration and acceptance was long and complex. Consequently, when an indicator is established in an environment and when it works properly, it is interesting to reuse it in other contexts. This reusing can be done entirely or partially. We thus propose a type of modeling which takes into account the reuse issues as well as those of the personalization and adaptation of indicators according to the user and\or to the context of the activity. In our approach, the indicators are calculated from the activity traces left by the users. To facilitate the implementation of these indicators, we have developed a tool which assists the users during the elaboration of indicators: GINDIC (Generator of INDICATORS). With this tool, the designers are able to build indicators: their definition, the calculations made on traces to obtain the indicator value, and their displaying. We have chosen to manage indicators by using a rules-based system, where traces are facts, whereas the calculation processes for indicators are rules. This thesis has been written within the framework of a project financed by the French National Research Agency entitled ProCoGeC (Collaborative Software package of Management of Knowledge). A rules-based language was compared with the needs of the ProCoGeC project. It helps us to describe the calculation processes for all indicators stemming from the users’ requirements. An experiment with the tool has been carried out with one of the industrial partners of the project, who is the client of a collaborative platform of knowledge management
Styles APA, Harvard, Vancouver, ISO, etc.
39

Aberkane, Idriss Jamil. « Mind Ergonomy for the Knowledge Economy : software Neuroergonomics and Biomimetics for the Knowledge Economy. Why ? How ? What ? » Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX005.

Texte intégral
Résumé :
La connaissance mondiale déclarée double environ tous les 9 ans (Kozmetsky, Smilor 1999) Parallèlement, le langage écrit ou verbal demeure le mode de transmission privilégié de la connaissance dans les organisations et sur le Web où aucune lingua franca n’a émergé, et qui est dès lors fractionné en contenus sinophone, anglophone, hispanophone, arabophone, hindiphone etc. Nous utilisons les travaux de Dehaene et al sur la mémoire épisodique dans son détournement par les calculateurs prodiges pour théoriser et concevoir une nouvelle interface homme-machine spatialisée qui permette à l’utilisateur individuel et en groupe de visualiser, de manipuler mentalement et d’échanger plus de connaissances. La théorisation et la conception de cette gamme d’interfaces, basées sur des algorithmes de spatialisation de listes, et l’unique objet de notre thèse
Could we flow knowledge faster and better? Why is this a problem in the first place? How can we tackle it technologically? What could be a prototype solution? This work unifies these questions in the outline of a single, refutable paradigm of noodynamics - the study of knowledge flows - and nooconomics, the economy of knowledge. This paradigm will answer the question “Why”. Neuroergonomics (“brain ergonomics”), and biomimicry, will be summoned in answer to the question “How”. Their contribution will follow from the simplest knowledge flow equation that is proposed in this work. Two original optimisation problems are also posed in software neuroergonomics and biomimetics: the Mindscape and Serendipity Problem. A case of theoretical neuroergonomics, or neuroergonomics ex ante is proposed with the study of Hyperwriting, a written grapheme-loceme association, or a glyphic method for externalising spatial memory. Its application to the design of user interface will finally found neuroergonomic design, or neuromimicry, with the example of a collegial interface to augment multiscale knowledge flows: Chréage. The anatomy of this prototype mindscape will be the conclusion of this work, and its answer to the question “What”?
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie