Dissertations / Theses on the topic 'Systèmes contextuels'

To see the other types of publications on this topic, follow the link: Systèmes contextuels.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes contextuels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Destin, Iramène. "L’approche par compétences en contextes scolaires francophones : quels enjeux contextuels dans le cas d’Haïti et du Burkina Faso ?" Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCA131/document.

Full text
Abstract:
Les systèmes éducatifs dans les pays en développement ont subi de véritables transformations depuis les années 1990. Différentes réformes ont été entreprises dans le but d’améliorer leur efficacité face aux divers changements provoqués par les effets de la mondialisation. Suite aux deux grands rassemblements internationaux, à Jomtien en 1990 et à Dakar en 2000 sur l'état de l'éducation dans le monde, ce secteur est placé au centre des préoccupations mondiales. Ainsi, sous l'impulsion des grands défis lancés par les organismes de financement international lors de ces grands rassemblements, les pays en développement se sont-ils engagés à entreprendre des réformes globales dans leur système éducatif.Cependant, en raison de leur philosophie, des contraintes liées aux particularités des contextes d’appropriation ainsi qu’à la pression exercée par des organismes de financement international qui exigent des résultats rapides, ces réformes doivent faire face à des difficultés d’applicabilité considérables.Cette thèse analyse le début de la réforme par les compétences entreprise en Haïti et au Burkina Faso en 2007. Elle renforce l’idée de la nécessité d’une stratégie nationale, dans la redéfinition des objectifs en fonction des réalités et des aspirations des populations, dans la gestion des ressources humaines et matérielles nécessaires pour réformer réellement et efficacement au risque d'affaiblir davantage ces systèmes éducatifs déjà trop précaires
Education systems in developing countries have undergone real transformations since the 1990s. Different reforms have been undertaken to improve their effectiveness in the face of the various changes brought about by the effects of globalization. Following the two major international meetings in Jomtien in 1990 and in Dakar in 2000 devoted to the state of education in the world, this sector is at the center of global concerns. Thus, under the impetus of the major challenges launched by international funding agencies at large gatherings, developing countries are committed to undertake comprehensive reforms in their education systems.However, due to their philosophy, constraints linked to the particularities of the contexts of appropriation and the pressure exerted by donors who demand rapid results, these reforms face enormous difficulties of applicability.This dissertation analyzes the beginning of the skills reform undertaken in Haiti and Burkina Faso in 2007. It reinforces the idea of the need for a national strategy, in redefining objectives according to the realities and aspirations of the populations, in managing the human and material resources needed to effectively reform against the risk of further weakening these already precarious educational systems
APA, Harvard, Vancouver, ISO, and other styles
2

Stratulat, Sorin. "Preuves par récurrence avec ensembles couvrants contextuels : applications à la vérification de logiciels de télécommunications." Nancy 1, 2000. https://tel.archives-ouvertes.fr/tel-00001304.

Full text
Abstract:
Le processus de certification de logiciels est dans la plupart des cas une tâche laborieuse et coûteuse qui nécessite aussi bien des méthodes mathématiques, pour exprimer sans ambiguïté et de façon structurée le comportement attendu du logiciel, que des outils automatiques pour vérifier ses propriétés. Parmi les techniques de preuve, la récurrence est parfaitement adaptée pour raisonner sur des structures de données infinies, comme les entiers et les listes, ou des systèmes paramétrés. Cette thèse comprend deux parties, l'une théorique, l'autre applicative. La première partie est centrée autour d'un nouveau concept, l'ensemble couvrant contextuel (ECC). Le principe de preuve par récurrence avec ECC est exprimé par un système d'inférence abstrait qui introduit des conditions suffisantes pour son application correcte. La conception modulaire de règles d'inférence concrètes est un avantage de cette approche. Comme étude de cas, nous spécifions le système d'inférence du démonstrateur SPIKE en tant qu'instance de ce système. Dans la deuxième partie, nous analysons tout d'abord le problème d'interactions de services téléphoniques. Nous proposons une méthodologie pour les détecter et les résoudre, reposant sur des techniques basées sur la réécriture conditionnelle et la récurrence. Dans une autre application, nous obtenons, à l'aide du démonstrateur PYS, la première preuve formelle de l'équivalence entre deux algorithmes de conformité du protocole ABR. Puis, nous utilisons SPIKE pour vérifier complètement automatiquement la majorité des 80 lemmes de cette preuve
The software certification process is in most of the cases a laborious and costly task that needs not only mathematical methods to express clearly and in a structured manner the software's expected behavior but also automatic tools to prove sorne of its properties. Among the proof techniques, induction is well-suited to reason on infinite data structures, like integers and lists, or parameterized systems. This thesis contains a theoretical and an applicative part. The first one is centered around the new concept of contextual cover set (CCS). The principle of induction with cess is reftected by an abstract inference system introducing sufficient conditions for its sound usage. The modular design of concrete inference rules is an advantage of this approach. As a case study, we specify the SPIKE prover as an instance of this system. In the second part, we first analyze the feature interaction problem in telecommunications. We propose a methodology for their detection and resolution by using techniques based on conditional rewriting and induction. In another application, we obtain the first formaI proof of a generic incremental ABR conformance algorithm, by using the PYS prover. Then, we use SPIKE to verify completely automatically the most of the 80 user-defined lemmas
APA, Harvard, Vancouver, ISO, and other styles
3

Dabbebi, Ines. "Conception et génération dynamique de tableaux de bord d’apprentissage contextuels." Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1040/document.

Full text
Abstract:
Ce travail s’inscrit dans une problématique générale de l’analytique de l’apprentissage numérique et particulièrement dans le contexte du projet ANR HUBBLE, un observatoire national permettant le dépôt de processus d’analyse de haut niveau. Nous nous intéressons principalement à la communication des données d’analyse aux utilisateurs en mettant à leur disposition des tableaux de bord d'apprentissage (TBA). Notre problématique porte sur l’identification de structures génériques dans le but de générer dynamiquement des TBA sur mesure. Ces structures doivent être à la fois génériques et adaptables aux besoins d’utilisateurs. Les travaux existants proposent le plus souvent des TBA trop généraux ou développés de manière adhoc. Au travers du projet HUBBLE, nous souhaitons exploiter les décisions des utilisateurs pour générer dynamiquement des TBA. Nous nous sommes intéressés au domaine de l’informatique décisionnelle en raison de la place des tableaux de bord dans leur processus. La prise de décision exige une compréhension explicite des besoins des utilisateurs. C'est pourquoi nous avons adopté une approche de conception centrée sur l'utilisateur dans le but de lui fournir des TBA adaptés. Nous proposons aussi un processus de capture des besoins qui a permis l’élaboration de nos modèles (indicateur, moyens de visualisation, utilisateur, …). Ces derniers sont utilisés par un processus de génération implémenté dans un prototype de générateur dynamique. Nous avons procédé à une phase d'évaluation itérative dont l’objectif est d'affiner nos modèles et de valider l'efficacité de notre processus de génération ainsi que de démontrer l'impact de la décision sur la génération des TBA
This work is part of a broader issue of Learning Analytics (LA). It is particularly carried out within the context of the HUBBLE project, a national observatory for the design and sharing of data analysis processes. We are interested in communicating data analysis results to users by providing LA dashboards (LAD). Our main issue is the identification of generic LAD structures in order to generate dynamically tailored LAD. These structures must be generic to ensure their reuse, and adaptable to users’ needs. Existing works proposed LAD which remains too general or developed in an adhoc way. According to the HUBBLE project, we want to use identified decisions of end-users to generate dynamically our LAD. We were interested in the business intelligence area because of the place of dashboards in the decision-making process. Decision-making requires an explicit understanding of user needs. That's why we have adopted a user-centered design (UCD) approach to generate adapted LAD. We propose a new process for capturing end-users’ needs, in order to elaborate some models (Indicator, visualization means, user, pattern, …). These models are used by a generation process implemented in a LAD dynamic generator prototype. We conducted an iterative evaluation phase. The objective is to refine our models and validate the efficiency of our generation process. The second iteration demonstrates the impact of the decision on the LAD generation. Thus, we can confirm that the decision is considered as a central element for the generation of LADs
APA, Harvard, Vancouver, ISO, and other styles
4

Pook, Stuart. "Interaction et contexte dans les interfaces zoomables." Paris, ENST, 2001. http://www.theses.fr/2001ENST0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Casals, Arthur. "Smart Mobility. An approach using multiagent planning and coordination." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS063.

Full text
Abstract:
Dans cette thèse, nous proposons une approche auto-adaptative pour construire un système intelligent de gestion des feux de circulation à utiliser dans les intersections. Cette approche s'appuie sur l'architecture des systèmes multi-agents (MAS) et le paradigme de l'agent BDI pour modéliser, concevoir et mettre en œuvre un SMA pour le contrôle du trafic capable de prendre en charge un mécanisme de régulation distribué et collaboratif tout en tenant compte des changements dynamiques du flux de trafic. Nos recherches concernent les domaines des systèmes sensibles au contexte, des agents intelligents, des systèmes multi-agents, de la planification collaborative entre agents, des architectures distribuées, du raisonnement contextuel et de l'intelligence ambiante. Nos contributions incluent un modèle général pour l'augmentation contextuelle des agents intelligents, un mécanisme de planification collaborative pour les agents contextuels et un cadre pour fournir la planification des agents en tant que service dans des architectures distribuées et faiblement couplées. Ce travail, lorsqu'il est combiné, aboutit à un agent collaboratif apte à être utilisé dans des scénarios impliquant la gestion et le contrôle des feux de circulation. Nos expériences cumulées, ainsi que l'évolution de notre architecture d'agents, aboutissent à un SMA qui permet aux agents d'optimiser la réalisation de leurs intentions individuelles et est capable de s'appuyer sur des processus auxiliaires tels que l'apprentissage automatique pour améliorer la qualité globale du système. Notre approche est validée par des expériences localisées, des simulations et des expériences reflétant des scénarios du monde réel
In this thesis, we propose a self-adaptive approach to build a smart traffic light management system to be used in intersections. This approach relies on the multiagent systems (MAS) architecture and the BDI agent paradigm to model, design, and implement a MAS for traffic control able to support a distributed and collaborative regulation mechanism while taking into account dynamic changes in the traffic flow. Our research involves the domains of context-aware systems, intelligent agents, multiagent systems, collaborative planning among agents, distributed architectures, contextual reasoning, and ambient intelligence. Our contributions include a general model for intelligent agents contextual augmentation, a collaborative planning mechanism for contextual agents, and a framework to provide agent planning as a service in distributed, loosely-coupled architectures. This work, when combined, results in a collaborative agent apt to be used in scenarios involving management and control of traffic lights. Our cumulative experiments, together with the evolution of our agent architecture, result in a MAS that (i) allows the agents to optimize the realization of their individual intentions and (ii) is able to rely on auxiliary processes such as machine learning (reinforcement learning) to improve the overall quality of the system. Our complete approach is validated by localized experiments, simulations, and experiments reflecting real-world scenarios
APA, Harvard, Vancouver, ISO, and other styles
6

Couderc, Paul. "Mobilité contextuelle dans les systèmes d'informations." Rennes 1, 2001. http://www.theses.fr/2001REN10110.

Full text
Abstract:
Les systèmes d'informations grande échelle comme le Web sont aujourd'hui potentiellement accessibles depuis n'importe où, grâce à l'informatique et aux communications mobiles. Cependant, leur exploitation par les utilisateurs mobiles est complexe lorsque l'utilisateur doit rechercher des informations en rapport avec sa situation réelle, comme par exemple l'heure d'un vol en arrivant dans un aéroport. En effet, les informations sur le Web sont liées entre elles par des liens reflétant une proximité thématique, ce qui permet à l'utilisateur de naviguer autour d'un sujet après avoir trouvé une première page intéressante, mais la localisation de cette première page est problématique, nécessitant souvent une recherche qui peut être longue et fastidieuse, procédure inadaptée dans le cas d'une utilisation mobile. Nous proposons dans cette thèse une solution à ce problème, grâce au concept de systèmes d'informations contextuels : un tel système est constitué dynamiquement par un ensemble d'entités physiques que l'on dispose dans l'espace (physique), qui émettent des informations, appelés indicateurs contextuels, caractérisant la situation, comme par exemple l'adresse d'une page Web. Chaque nœud perçoit un certain nombre de nœuds voisins, dont il dérive un contexte, c'est-à-dire l'ensemble des indicateurs contextuels. Ce concept a été expérimenté avec une application, le navigateur web spatial, qui permet notamment de se déplacer dans le système d'information par déplacement physique.
APA, Harvard, Vancouver, ISO, and other styles
7

Pasquier, Laurent. "Modélisation de raisonnements tenus en contexte : application à la gestion d'incidents sur une ligne de métro." Paris 6, 2002. http://www.theses.fr/2002PA066287.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Krupa, Yann. "PrivaCIAS - Privacité selon l'intégrité contextuelle dans les systèmes agents décentralisés." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00843082.

Full text
Abstract:
Les approches habituelles pour la protection de la privacité s'attachent à définir un niveau de sensibilité pour chaque information. Cette information est soit publique, soit privée et sa circulation est restreinte à un groupe d'agents prédéfini. Dans cette thèse, nous nous appuyons sur la théorie de l'intégrité contextuelle, qui propose de redéfinir la notion de violation de privacité. Selon cette théorie, toute transmission peut déclencher une violation de privacité suivant le contexte dans lequel elle a lieu. Cette thèse utilise la théorie de l'intégrité contextuelle afin de proposer un modèle de protection de la privacité pour les systèmes multi-agents décentralisés: le modèle PrivaCIAS. Afin de contrôler les agents dans le système, le modèle PrivaCIAS fournit un ensemble de normes qui permet la mise en place d'un contrôle social basé sur la confiance. Le modèle donne le contrôle aux agents pour constater les violations (selon l'intégrité contextuelle), puis punir les contrevenants en les excluant du système sans avoir besoin de recourir à une autorité centrale. Ce modèle vise les réseaux sociaux décentralisés comme champ d'application.
APA, Harvard, Vancouver, ISO, and other styles
9

Ferré, Sébastien. "Systèmes d'information logiques : un paradigme logico-contextuel pour interroger, naviguer et apprendre." Rennes 1, 2002. http://www.theses.fr/2002REN10143.

Full text
Abstract:
Les deux principaux paradigmes de recherche d'information, la navigation et l'interrogation, sont souvent dissociés. Les systèmes hiérarchiques offrent une structure de navigation figée qui ne convient pas à toutes les utilisations ; ce qu'ils compensent par des outils de recherche. Ceux-ci, fondés sur l'interrogation, sont plus souples mais plus difficiles à utiliser pour les non-initiés. Il apparaît donc comme nécessaire de combiner étroitement navigation et interrogation. Pour réaliser cette combinaison, nous nous fondons sur l'Analyse de concepts (AC), où les concepts jouent à la fois le rôle de répertoire et de requête. Comme dans l'AC les descriptions se limitent à des ensembles d'attributs, nous avons généralisé l'AC aux formules d'une logique arbitraire pour traiter d'applications diverses. Les Systèmes d'information logiques (SIL) se définissent donc par la combinaison navigation/interrogation, l'emploi de la logique et la généricité.
APA, Harvard, Vancouver, ISO, and other styles
10

Hue, Jean-François. "L'analyse contextuelle des textes en langue naturelle : les systèmes de réécritures typées." Nantes, 1995. http://www.theses.fr/1995NANT2034.

Full text
Abstract:
Nous soutenons que le traitement automatique de la langue naturelle peut être réalisé, notamment dans une approche contextuelle, par une analyse syntaxico-sémantique en plusieurs passes, non linéaire, non ascendante, ni descendante, et non totale. Nous proposons dans ce but un modèle pour les grammaires, les systèmes de réécritures typées. Des logiciels d'application qui illustrent cette démarche et le concept de systèmes de réécritures typées sont exposés
APA, Harvard, Vancouver, ISO, and other styles
11

Hammar, Rabia. "Conception et mise en oeuvre d'un système de visualisation contextuelle." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4864.

Full text
Abstract:
Entre l'acquisition de l'image et son affichage, il y a plusieurs opérations que l'image subit.En plus, les écrans ne sont pas capables d'afficher les images avec une grande fidélité. Ce travail consiste à corriger l'image avant son affichage. Les corrections apportées dépendent essentiellement des spécificités de l'usager comme les caractéristiques de la rétine et les différents aspects de la perception des couleurs. Elles dépendent aussi de l'environnement qui intervient par l'intensité et la couleur de la lumière. Enfin, elles dépendent des caractéristiques de l'écran qui influencent l'affichage avec son gamut, son intensité maximale et sa consommation en énergie. Notre objectif est de créer un système qui prend en charge tous ces paramètres et qui nous fournit à la sortie une image qui satisfasse l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
12

Coste, Benjamin. "Détection contextuelle de cyberattaques par gestion de confiance à bord d'un navire." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0106/document.

Full text
Abstract:
Dans le domaine maritime, la maitrise de la navigation et de la conduite d’un navire sont deux aspects essentiels pour la bonne marche et la sécurité du navire, des personnels et la préservation de l’environnement maritime. Or, les navires modernes embarquent de plus en plus de technologies informatisées, connectées et automatisées pour gérer ces fonctions primordiales. Ces technologies (capteurs, actionneurs, automates, logiciels) qui constituent le système d’information (SI) d’un navire peuvent cependant être leurrées ou corrompues par un tiers, remettant ainsi en cause la confiance qui leur est accordée. Dans ce contexte, une nouvelle approche de détection des falsifications des informations fondée sur l’évaluation de la confiance dans les composants du SI est proposée. Du fait de leurcomplexité, les systèmes d’information des navires peuvent être considérés comme des ensembles de blocs fonctionnels inter-reliés qui produisent, traitent et reçoivent des informations. La confiance d’un bloc fonctionnel producteur d’information est évaluée au travers de sa capacité, divisée en deux composantes (compétence et sincérité), à rendre compte de la situation réelle du navire. Elle se propage ensuite, à l’instar de l‘information, aux autres entités du système, quelle que soit leur complexité. Différents scénarios ont été expérimentés grâce à l’élaboration d’un simulateur. La variabilité de la confiance face à des altérations volontaires d’informations numériques permet de déduire la survenue d’une attaque ainsi que sa cible sous certaines conditions. Sans se restreindre aux systèmes navals, l’approche proposée permet de s’adapter à une grande variété de situations incluant le facteur humain. Les travaux de cette thèse ont été soutenus et co-financés par la région Bretagne ainsi que la Chaire de Cyber Défense des Systèmes Navals impliquant l’Ecole Navale, IMT Atlantique, NavalGroup et Thales
Navigation and ship’s management are two essential aspects for the security of the ship itself and people on board as much as the maritime environment protection. Modern ships ensure these functions by increasingly embedding connected and automated technologies such as sensors, actuators, programmable logic controllers and pieces of software. However, the security of this objects as well as the trust in the information they produce cannot be guaranteed: they can be deceived or under the control of a malicious third party. In this context, a novel approach of data falsification detection is proposed. It is based on trust assessment of information system components which can be seen as inter-related functional blocks producing, processing and receiving pieces of information. The trust one can have inproduction blocks, called information sources, is assessed through its ability to report real situation of the ship. Trust is then propagated to the remainder part of the system. A simulator was made thanks to which we experiment several scenarios including intentional modification of numerical data. In these cases and under some conditions, the variability of trust give us the ability to identify the attack occurrence as much as its target. Our proposition is not restricted to naval information systems and can be employed in various situations even with human factor
APA, Harvard, Vancouver, ISO, and other styles
13

Yin, Chuantao. "Samcco : un Système d'Apprentissage Mobile Contextuel et Collaboratif dans des Situations Professionnelles." Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00564488.

Full text
Abstract:
Sous l'influence des technologies de l'informatique mobile, l'apprentissage devient de plus en plus mobile. En effet, utiliser des dispositifs mobiles pour apprendre, n'importe où et n'importe quand, c'est l'objectif de l'apprentissage mobile (Mobile Learning). Nous nous plaçons principalement dans des situations professionnelles, portant sur l'apprentissage contextuel de la maîtrise d'équipements domestiques, publics ou professionnels en mobilité. Nos travaux de recherche visent à mettre en oeuvre l'apprentissage mobile que nous voulons situé, contextuel, personnel, collaboratif, et tout au long de la vie. Nous proposons un système d'apprentissage mobile contextuel appelé SAMCCO (Système d'Apprentissage Mobile Contextuel et Collaboratif) qui prend en compte les exigences MOCOCO (Mobilité, Contextualisation, Collaboration). Dans nos travaux, nous explorons les domaines des technologies mobiles, de l'apprentissage mobile, de la contextualisation, des méthodes d'apprentissage en contexte, du Travail Collaboratif Assisté par Ordinateur (TCAO) de l'Interaction Homme-Machine (IHM) et de la Réalité Augmentée (RA). Nos travaux ont commencé par l'étude de la modélisation d'unités d'apprentissage. Nous avons défini des modèles de ces unités d'apprentissage en tant que ressources d'apprentissage pour la maîtrise d'équipements. Nous définissons les métadonnées AMLOM (Appliance Mastering LOM) pour décrire ces unités d'apprentissage. Les métadonnées AMLOM sont issues d'IEEE LOM (Learning Object Metadata) avec la redéfinition de certains éléments et l'ajout de nouveaux éléments pour permettre la contextualisation des unités d'apprentissage dans nos contextes d'apprentissage. Nous avons également élaboré un processus de production d'unités d'apprentissage. Ce processus permet de transformer les documentations initiales, comme des manuels papier ou d'autres formats numériques, en unités d'apprentissage XML et de les stocker et indexer dans une base de données, pour être prêtes à être interrogées par le système d'apprentissage SAMCCO. La conception de SAMCCO s'appuie sur l'approche basée sur les scénarios et sur les modèles. SAMCCO se base sur la plateforme IMERA (Interaction Mobile dans l'Environnement Réel Augmenté) développée par notre équipe, qui a pour but de prendre en compte les augmentations suivantes : apprenant augmenté, environnement augmenté, équipement augmenté. La modélisation, la prise en compte des exigences d'apprenant et du contexte d'apprentissage dans son activité professionnelle sont au coeur de nos travaux. Nous avons également adapté des méthodes d'apprentissage, comme l'apprentissage juste à temps, l'apprentissage par l'action et l'apprentissage collaboratif, à nos activités d'apprentissage mobiles. L'architecture du système se base sur des modèles (bases de données, services génériques, patterns d'interaction, etc.). L'objectif de SAMCCO est d'augmenter avec les caractéristiques MOCOCO l'efficacité de l'apprentissage et la performance du travail associé dans les activités de la maîtrise d'équipements domestiques, publics, ou professionnels. En s'appuyant sur les principes de notre approche, nous avons réalisé plusieurs applications pour valider l'intérêt de SAMCCO dans différentes situations. Le scénario du banc de tests MAPED nous a permis de valider le processus de production d'unités d'apprentissage dans un cas concret. Le scénario de maintenance de l'ordinateur est un cas d'application de l'apprentissage mobile contextuel dans une activité de maintenance d'équipement. Le projet HSHB (Healthy Spirit in Healthy Body) permet un autre type d'apprentissage, l'apprentissage mobile contextuel dans le processus de constitution d'un repas équilibré dans un restaurant libre service, dans lequel notre système peut également être utilisé.
APA, Harvard, Vancouver, ISO, and other styles
14

Striegnitz, Kristina. "Génération d'expressions anaphoriques : Raisonnement contextuel et planification de phrases." Nancy 1, 2004. http://www.theses.fr/2004NAN10186.

Full text
Abstract:
Cette thèse porte sur le raisonnement contextuel impliqué par la production d'expressions anaphoriques dans un système de génération de langue naturelle. Plus précisément, nous proposons des stratégies pour générer deux types d'anaphore n'ayant encore jamais été considérés dans la génération : les anaphores associatives et les adverbes additifs. Dans ce but, nous formalisons tout d'abord les conditions contextuelles déterminant l'usage de ces expressions. Cette formalisation est basée sur des notions linguistiques, et étend les approches antérieures de génération d'anaphores co-référentielles. Ensuite, nous spécifions les tâches de raisonnement à effectuer pour vérifier ces conditions contextuelles. Nous décrivons comment ces tâches peuvent être implémentées en utilisant un système d'inférence pour les logiques de description, et nous comparons notre approche à des approches alternatives utilisant d'autres systèmes d'inférence. Pour finir, nous décrivons une implémentation expérimentale de notre approche
This thesis investigates the contextual reasoning involved in the production of anaphoric expressions in natural language generation systems. More specifically, I propose generation strategies for two types of discourse anaphora which have not been treated in generation before: bridging descriptions and additive particles. To this end the contextual conditions that govern the use of these expressions have to be formalized. The formalization that I propose is based on notions from linguistics and extends previous approaches to the generation of co-referential anaphora. I then specify the reasoning tasks that have to be carried out in order to check the contextual conditions. I describe how they can be implemented using a state-of-the-art reasoning system for description logics, and I compare my proposal to alternative approaches using other kinds of reasoning tools. Finally, I describe an experimental implementation of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
15

Rifaieh, Rami Dib. "Utilisation des ontologies contextuelles pour le partage sémantique entre les systèmes d'information dans l'entreprise." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0094/these.pdf.

Full text
Abstract:
The enterprise information systems (EIS) offer the cornerstone for managing enterprise business, applying strategic and economical decisions, and holding communication with partners. Bringing systems to work together is increasingly becoming essential for leveraging the enterprise information systems and reaching common goals. Currently, enterprises develop their systems independently with low consideration for the collaboration that systems can play with other systems. Certain, semantic sharing represents the daunting barrier for making these systems work together through a more convenient global architecture and providing interoperability and reusability. In the last decade, theoretical research such as ontologies and context were suggested separately as formal support for treating the semantics sharing problem. This thesis concentrates on studying the application of tightening together context and ontologies which can serve as formal background for reaching a suitable global enterprise environment. The study covers the usefulness of contextual ontologies for data integration and data exchange platforms. It invests in resolving the semantic sharing problem between these platforms as well as suggesting individuals' solutions for their state of the art. It brings along architecture and implementation, with some scenario of use within EIS
Aujourd’hui le partage sémantique entre les systèmes d’information est devenu un challenge dans les entreprises. En effet, ces systèmes constituent les fondements de la gestion du métier de l’entreprise, mènent les stratégies économiques et décisionnelles, et gèrent la communication avec les partenaires. Pour ces raisons, ces systèmes doivent être amenés à fonctionner ensemble pour permettre d’atteindre les objectifs visés par l'entreprise. Nous constatons que le partage sémantique représente une réelle barrière empêchant de faire interopérer et réutiliser ces systèmes à travers une architecture pratique. Depuis quelques années, l'usage des ontologies est de plus en plus grandissant pour résoudre le problème de partage sémantique. Le but de cette thèse est de contextualiser les ontologies et de s'en servir comme base formelle pour mettre en place des plateformes d'intégration et d'échange de données dans les systèmes d'information d'entreprise (SIE). Une architecture et une implémentation couvrant des scénarios d'utilisation, vient à l'appui du cadre formel
APA, Harvard, Vancouver, ISO, and other styles
16

Benouaret, Idir. "Un système de recommandation contextuel et composite pour la visite personnalisée de sites culturels." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2332/document.

Full text
Abstract:
Notre travail concerne les systèmes d’aide à la visite de musée et l’accès au patrimoine culturel. L’objectif est de concevoir des systèmes de recommandation, implémentés sur dispositifs mobiles, pour améliorer l’expérience du visiteur, en lui recommandant les items les plus pertinents et en l’aidant à personnaliser son parcours. Nous considérons essentiellement deux terrains d’application : la visite de musées et le tourisme. Nous proposons une approche de recommandation hybride et sensible au contexte qui utilise trois méthodes différentes : démographique, sémantique et collaborative. Chaque méthode est adaptée à une étape spécifique de la visite de musée. L’approche démographique est tout d’abord utilisée afin de résoudre le problème du démarrage à froid. L’approche sémantique est ensuite activée pour recommander à l’utilisateur des œuvres sémantiquement proches de celles qu’il a appréciées. Enfin l’approche collaborative est utilisée pour recommander à l’utilisateur des œuvres que les utilisateurs qui lui sont similaires ont aimées. La prise en compte du contexte de l’utilisateur se fait à l’aide d’un post-filtrage contextuel, qui permet la génération d’un parcours personnalisé dépendant des œuvres qui ont été recommandées et qui prend en compte des informations contextuelles de l’utilisateur à savoir : l’environnement physique, la localisation ainsi que le temps de visite. Dans le domaine du tourisme, les points d’intérêt à recommander peuvent être de différents types (monument, parc, musée, etc.). La nature hétérogène de ces points d’intérêt nous a poussé à proposer un système de recommandation composite. Chaque recommandation est une liste de points d’intérêt, organisés sous forme de packages, pouvant constituer un parcours de l’utilisateur. L’objectif est alors de recommander les Top-k packages parmi ceux qui satisfont les contraintes de l’utilisateur (temps et coût de visite par exemple). Nous définissons une fonction de score qui évalue la qualité d’un package suivant trois critères : l’appréciation estimée de l’utilisateur, la popularité des points d’intérêt ainsi que la diversité du package et nous proposons un algorithme inspiré de la recherche composite pour construire la liste des packages recommandés. L’évaluation expérimentale du système que nous avons proposé, en utilisant un data-set réel extrait de Tripadvisor démontre sa qualité et sa capacité à améliorer à la fois la précision et la diversité des recommandations
Our work concerns systems that help users during museum visits and access to cultural heritage. Our goal is to design recommender systems, implemented in mobile devices to improve the experience of the visitor, by recommending him the most relevant items and helping him to personalize the tour he makes. We consider two mainly domains of application : museum visits and tourism. We propose a context-aware hybrid recommender system which uses three different methods : demographic, semantic and collaborative. Every method is adapted to a specific step of the museum tour. First, the demographic approach is used to solve the problem of the cold start. The semantic approach is then activated to recommend to the user artworks that are semantically related to those that the user appreciated. Finally, the collaborative approach is used to recommend to the user artworks that users with similar preferences have appreciated. We used a contextual post filtering to generate personalized museum routes depending on artworks which were recommended and contextual information of the user namely : the physical environment, the location as well as the duration of the visit. In the tourism field, the items to be recommended can be of various types (monuments, parks, museums, etc.). Because of the heterogeneous nature of these points of interest, we proposed a composite recommender system. Every recommendation is a list of points of interest that are organized in a package, where each package may constitute a tour for the user. The objective is to recommend the Top-k packages among those who satisfy the constraints of the user (time, cost, etc.). We define a scoring function which estimates the quality of a package according to three criteria : the estimated appreciation of the user, the popularity of points of interest as well as the diversity of packages. We propose an algorithm inspired by composite retrieval to build the list of recommended packages. The experimental evaluation of the system we proposed using a real world data set crawled from Tripadvisor demonstrates its quality and its ability to improve both the relevance and the diversity of recommendations
APA, Harvard, Vancouver, ISO, and other styles
17

Pauty, Julien. "Rôle de la géométrie en informatique diffuse : programmation des applications et navigation contextuelle." Rennes 1, 2006. ftp://ftp.irisa.fr/techreports/theses/2006/pauty.pdf.

Full text
Abstract:
L'informatique diffuse a pour objectif d'assister implicitement l'utilisateur dans ses tâches quotidiennes. Contrairement à une application d'informatique traditionnelle, une application d'informatique diffuse est utilisée directement depuis l'espace physique. Une application d'informatique diffuse est fonction de l'organisation géométrique de l'espace physique. Les services fournis par les applications d'informatique diffuse dépendent souvent par exemple de la position géographique de l'utilisateur ou la proximité relative d'objets physiques. Dans cette thèse, nous étudions dans un premier temps le rôle de la géométrie dans le cadre de la programmation des applications d'informatique diffuse. Nous proposons un modèle de programmation basé sur la synchronisation des programmes sur les mouvements des personnes et objets physiques. Dans un second temps, nous étudions le rôle de la géométrie dans la construction, l'organisation et la navigation dans un système d'information physique.
APA, Harvard, Vancouver, ISO, and other styles
18

Carrillo, Ramos Angela Cristina. "Agents ubiquitaires pour un accès adapté aux systèmes d'information : Le Framework PUMAS." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00136931.

Full text
Abstract:
L'informatique ubiquitaire est un paradigme récent dont l'objectif est de permettre aux utilisateurs de consulter des données n'importe quand, n'importe où, notamment à l'aide de Dispositifs Mobiles (DM). Dans ce cadre, garantir l'accès par des utilisateurs nomades aux Systèmes d'Information (SI) à travers divers dispositifs, ainsi que l'adaptation de l'information aux préférences de l'utilisateur nomade et au contexte d'utilisation de la session en cours, sont deux problèmes liés non encore résolus. En effet, les utilisateurs nomades de SI peuvent être exposés à une grande quantité d'informations qui n'est pas toujours pertinente ni même simplement supportée par leurs DM. A des fins d'adaptation, un SI doit donc disposer de données sur le contexte d'utilisation – notion qui englobe les conditions temporelles, spatiales, matérielles, etc. dans lesquelles l'utilisateur accède au SI –, mais également sur les préférences de l'utilisateur afin de satisfaire ses attentes à la fois en termes de fonctionnalités, de contenu, et d'affichage.
A travers deux propositions, les travaux de thèse exposés ici tentent d'apporter une réponse à cette double problématique. Tout d'abord, nous avons conçu et réalisé un framework appelé PUMAS qui offre à des utilisateurs nomades un accès à l'information, qui prend en compte le contexte d'utilisation. L'approche que nous avons choisie est celle des agents. Ainsi, l'architecture de PUMAS est composée de quatre Systèmes Multi-Agents (SMA) respectivement dédiés à la connexion aux SI, la communication entre les utilisateurs et les SI, la gestion de l'information et l'adaptation de celle-ci. Ensuite, nous avons élaboré un Système de Gestion de Profil Contextuel (SGPC) qui contribue à l'adaptation de l'information délivrée à un utilisateur nomade sur trois aspects : i) une formalisation de la notion de préférence de l'utilisateur qui permet de modéliser les activités accomplies dans le système, les résultats attendus de ces activités et la manière dont ces résultats sont présentés ; ii) un algorithme de correspondance contextuelle qui génère le profil contextuel d'un utilisateur nomade à partir du contexte d'utilisation ; iii) un mécanisme qui gère les conflits pouvant survenir entre les préférences de l'utilisateur. Enfin, le SGPC a été intégré à PUMAS au sein du SMA dédié à l'adaptation de l'information.
APA, Harvard, Vancouver, ISO, and other styles
19

Jouen, Anne-Lise. "Au-delà des mots et des images, bases neurophysiologiques d'un système sémantique commun à la compréhension des phrases et des scènes visuelles." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10322.

Full text
Abstract:
Certaines théories du fonctionnement cognitif postulent l'existence d'un système cérébral impliqué dans la compréhension sémantique indépendamment de la modalité d'entrée des stimuli. L'objectif de ce travail de thèse était d'étudier le fonctionnement d'un tel réseau, impliqué à la fois dans la compréhension de phrases et de scènes visuelles, en lien avec la théorie de la cognition incarnée. Dans la littérature, un ensemble d'aires frontotemporo- pariétales sensorimotrices et associatives sont décrites comme intervenant dans ces processus sémantiques, mais il existe un manque de consensus concernant la nature amodale de ce système et la plupart des travaux existants se sont concentrés sur l'identification de réseaux corticaux impliqués dans les représentations sémantiques, séparément pour l'une ou l'autre des modalités. De plus, les stimuli utilisés dans les protocoles expérimentaux sont généralement moins complexes que les situations interactives auxquelles nous sommes confrontés dans la vie de tous les jours. Une part importante de l'activité mentale humaine réside dans notre capacité à construire des représentations internes riches : ces modèles mentaux, impliqués dans une grande variété de processus cognitifs, nous permettent d'explorer certains souvenirs du passé, de planifier le futur ou encore de comprendre et de s'adapter à une situation en temps réel. Bien que les progrès des techniques d'Imagerie du Tenseur de Diffusion aient rendu possible la visualisation in vivo de fibres de matière blanche dans le cerveau humain, la connectivité du système sémantique amodal a très peu été étudiée jusque-là. Dans ce travail, nous avons utilisé différentes techniques (principalement de neuro-imagerie IRMf, DTI, EEG) pour mettre en évidence les bases neurophysiologiques d'un système sémantique commun impliqué dans la représentation et la compréhension de stimuli complexes verbaux et non-verbaux. Avec notre premier protocole combinant IRMf et DTI, nous nous sommes intéressés aux activations et à la connectivité cérébrales chez 19 sujets sains en train de lire des phrases ou d'observer des images représentant des événements quotidiens. Une analyse de l'activité cérébrale conjointe associée à la compréhension de ces deux types de stimuli a révélé un réseau fronto-temporo-pariétal commun, impliquant le gyrus frontal inférieur, le gyrus précentral, le cortex rétrosplénial, le gyrus temporal moyen avec une activité s'étendant jusqu'à la jonction temporo-pariétale (TPJ) et au lobe pariétal inférieur. La tractographie DTI a révélé une architecture spécifique de fibres de matière blanche, soutenant ce réseau sémantique et qui fait appel principalement aux faisceaux décrits comme la voie ventrale sémantique (IFOF, UF, ILF, MdLF). Notre seconde expérience (protocole comportemental) nous a permis d'étudier les différences interindividuelles dans la capacité à se représenter des phrases présentées visuellement ou auditivement. Nous avons démontré que les individus ne sont pas égaux quant à cette capacité de représentation et que ces différences se reflètent dans des marqueurs comportementaux tels que la facilité de représentation (évaluée par le COR, coefficient de représentabilité) et la vitesse de réponse (TR) ; mais aussi que ces différences interindividuelles trouvent une correspondance avec le nombre de fibres qui composent le MdLF, laissant supposer une implication de ce faisceau dans ces capacités de représentation. Les résultats de ce protocole comportemental, ainsi que ceux de notre troisième protocole en EEG, ont permis de mettre en évidence un effet contextuel particulièrement important pour la création d'une représentation dans les deux modalités : le contexte induit par la présentation d'un premier stimulus (phrase ou image) influence la représentation d'un second stimulus selon que celui-ci est sémantiquement cohérent ou non avec le premier stimulus présenté... [etc]
Certain theories of cognitive function postulate a neural system for processing meaning, independent of the stimulus input modality. The objective of this thesis work, in line with the embodied cognition domain, was to study functionalities of such a network involved in both sentence and visual scene comprehension. In the literature, a wide network of fronto-temporo-parietal sensorimotor and associative areas are described as being involved in this process, and while there’s a lack of consensus on the amodal nature of this system, extensive research has focused on identifying distributed cortical systems that participate in meaning representations separately in the visual and language modalities. Moreover, the stimuli used are generally less complex than everyday life situations we meet. However, a significant portion of human mental life is built upon the construction of perceptually and socially rich internal scene representations and these mental models are involved in a large variety of processes for exploring specific memories of the past, planning the future, or understanding current situations. Although diffusion-tensor imagery based techniques makes feasible the visualization of white matter tracts in the human brain, the connectivity of the semantic network has been little studied. Through different experimental protocols involving mainly neuroimaging techniques (fMRI, DTI, EEG), we were able to reveal the neurophysiological basis of this common semantic network involved in the building of representation and comprehension of rich verbal and non-verbal stimuli. With our first experiment, we examined brain activation and connectivity in 19 subjects who read sentences and viewed pictures corresponding to everyday events, in a combined fMRI and DTI study. Conjunction of activity in understanding sentences and pictures revealed a common fronto temporo-parietal network that included inferior frontal gyrus, precentral gyrus, the retrosplenial complex, and medial temporal gyrus extending into the temporo-parietal junction (TPJ) and inferior parietal lobe. DTI tractography revealed a specific architecture of white matter fibers supporting this network which involves principally the pathways described as the ventral semantic route (IFOF, UF, ILF, MdLF). Our second experiment, which is a behavioral protocol, explored interindividual differences in the ability to represent sentences presented in auditory or visual modality. We demonstrated that individuals are not equal in this capacity to represent sentences, these differences were reflected in the effects on behavioral markers including scores of ease of representation (COR) and speed of responses (TR); they are also related to the number of fibers of the MdLF which supposes a role for this fasciculus in capacities of representation. Both the results of this behavioral protocol and results from our third EEG experiment also showed that the contextual effect was significant: the context induced by the presentation of a first stimulus has the ability to influence the representation of a second stimulus when is the second is semantically consistent or not with the first presented stimulus. Our EEG results (ERPs) revealed components influenced by the available semantic information: early attentional effects which could be modality-specific and later semantic integration process common for verbal and non-verbal stimuli... [etc]
APA, Harvard, Vancouver, ISO, and other styles
20

Kirsch, Pinheiro Manuele. "Adaptation Contextuelle et Personnalisée de l'Information de Conscience de Groupe au sein des Systèmes d'Information Coopératifs." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00108495.

Full text
Abstract:
L'évolution des technologies mobiles permet d'envisager leur utilisation pour un travail coopératif. Les limitations techniques de ces technologies et le nomadisme rendu possible par elles rendent nécessaire aux collecticiels sur le Web l'adaptation de l'information de conscience groupe délivrée à un utilisateur nomade. Dans ce travail, nous proposons un mécanisme de filtrage de l'information qui tient compte à la fois du contexte de l'utilisateur et de ses préférences dans ce contexte précis. La notion de contexte est représentée par un modèle à objets qui intègre autant le contexte physique de l'utilisateur (sa localisation, le dispositif utilisé...) que le contexte coopératif dans lequel il évolue (notions de groupe, de rôle, d'activité...). Les préférences de l'utilisateur sont représentées par des profils qui permettent de délivrer à l'utilisateur des informations organisées en plusieurs niveaux de détails. Enfin, la proposition est implémentée au sein d'un canevas nommé BW-M.
APA, Harvard, Vancouver, ISO, and other styles
21

Aroua, Anissa. "Conception et réalisation d'un consultant basé sur le contexte : application en histopathologie pour la gradation du cancer du sein." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01062600.

Full text
Abstract:
Le diagnostic du cancer du sein est une activité humaine qui dépend du contexte dans lequel il est réalisé. Ce contexte se traduit par l'existence de très nombreux éléments qui rend l'automatisation de cette activité impossible. Depuis quelques années, la numérisation des lames (support de raisonnement) a incité les pathologistes à passer à l'analyse d'image de lames à l'écran. Cette migration a offre la possibilité d'une procéduralisation au moins partielle de leurs méthodes d'analyse. Dans le cadre de cette thèse, nous nous sommes intéressés à l'activité d'analyse d'une image de lame par un pathologiste qui est modélisée dans le formalisme des graphes contextuels dans le but de proposer une solution permettant d'assister les pathologistes dans leurs diagnostics. Notre Consultant fait partie des Systèmes d'Assistance Intelligents basés sur le Contexte. L'outil principal du Consultant est basé sur la Simulation à partir de pratiques expertes décrites dans un graphe contextuel. En partant d'une image que le pathologiste doit analyser, le simulateur va développer une pratique qui est la plus adaptée au contexte de travail. Le résultat de la simulation va donc être la pratique résultante et toutes les informations sur la manière dont cette pratique a été obtenue. Le consultant propose alors à l'utilisateur une visualisation des résultats des simulations réalisées permettant de les analyser et de les comparer.
APA, Harvard, Vancouver, ISO, and other styles
22

Shahram, Nourizadeh. "Un système de télésanté contextuel avec support de qualité de service pour le maintien à domicile." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2011. http://tel.archives-ouvertes.fr/tel-00645544.

Full text
Abstract:
Cette thèse est une thèse CIFRE entre le LORIA et la société MEDETIC et porte sur la conception des systèmes de télésurveillance pour le maintien à domicile des personnes âgées. Le système est conçu aux personnes âgées qui veulent passer leur vieillesse dans leur propre maison, à cause de son potentiel pour augmenter l'indépendance et la qualité de la vie. Cela profiterait non seulement aux personnes âgées qui veulent vivre dans leur propre maison, mais aussi le système de santé publique en coupant des prix de façon significative. Mis à part la conception d'une architecture de télésurveillance " Vill'Âge® "basée sur des réseaux de capteurs hétérogènes (Domotique, IEEE802.15.4/Zigbee, Wifi, Bluetooth), la thèse a contribué essentiellement sur la proposition d'un protocole de clustering et de routage dans le réseau de capteurs sans fil avec une approche de la logique floue, et d'un middleware pour la collecte et le traitement des données des capteurs avec la gestion de la qualité de service comme particularité. Une première plateforme de test à été développée à Colmar (MEDETIC) et une seconde, plus complète et fait suite de cette thèse, est en cours de développement au LORIA (http://infositu.loria.fr/). Nous avons participé dans le concours de ministère de l'Enseignement supérieur et de la recherche avec un projet intitulé MPIGate: " Multi Protocol Interface and GATEway for Telecare, Environment Monitoring and Control " et nous avons gagné le prix de ce concours au niveau d'émergence.
APA, Harvard, Vancouver, ISO, and other styles
23

Nourizadeh, Shahram. "Un système de télésanté contextuel avec support de qualité de service pour le maintien à domicile." Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL044N/document.

Full text
Abstract:
Cette thèse est une thèse CIFRE entre le LORIA et la société MEDETIC et porte sur la conception des systèmes de télésurveillance pour le maintien à domicile des personnes âgées.Le système est conçu aux personnes âgées qui veulent passer leur vieillesse dans leur propre maison, à cause de son potentiel pour augmenter l'indépendance et la qualité de la vie. Cela profiterait non seulement aux personnes âgées qui veulent vivre dans leur propre maison, mais aussi le système de santé publique en coupant des prix de façon significative.Mis à part la conception d'une architecture de télésurveillance « Vill’Âge® »basée sur des réseaux de capteurs hétérogènes (Domotique, IEEE802.15.4/Zigbee, Wifi, Bluetooth), la thèse a contribué essentiellement sur la proposition d'un protocole de clustering et de routage dans le réseau de capteurs sans fil avec une approche de la logique floue, et d'un middleware pour la collecte et le traitement des données des capteurs avec la gestion de la qualité de service comme particularité.Une première plateforme de test à été développée à Colmar (MEDETIC) et une seconde, plus complète et fait suite de cette thèse, est en cours de développement au LORIA (http://infositu.loria.fr/).Nous avons participé dans le concours de ministère de l'Enseignement supérieur et de la recherche avec un projet intitulé MPIGate: « Multi Protocol Interface and Gateway for telecare, environment Monitoring and Control » et nous avons gagné le prix de ce concours au niveau d’émergence
This thesis is a thesis CIFRE between LORIA and the MEDETIC Company and focuses on the design of telehomecare system for the elderly.In addition to the design of a remote surveillance architecture “Vill’Âge ®” based on networks of heterogeneous sensor (home automation, IEEE802.15.4/Zigbee, Wifi, Bluetooth), thesis has contributed essentially on the proposal of a clustering and routing protocol in the network of wireless sensors with an approach to fuzzy logic, and of a middleware for the collection and processing of data from sensors with the management of the quality of service as a special feature.A first platform was developed at Colmar (MEDETIC) and a second who is more complete is under development at LORIA (http://infositu.loria.fr/).By using this system, MEDeTIC, offers a new concept of smart homes for the senior citizens, named in French “Maisons Vill’Âge”. The first housing schemes are being built in 2 departments of France. A flat is entirely equipped to act as a demonstrator and as laboratory of research and development.The system is designed for the elderly who wish to spend their old age in their own home, because of its potential to increase independence and quality of life. This would not only benefit the elderly who want to live in their own home, but also the national health care system by cutting costs significantly. Based on this PhD thesis, MPIGate, a “Multiprotocol Interface and Gateway for for telecare, environment”, has been developed. MPIGate was awarded in the competition of the Ministry of Higher Education and Research and OSEO 2010
APA, Harvard, Vancouver, ISO, and other styles
24

Nebhani, Naima. "Une nouvelle approche de modélisation et d'adaptation contextuelle des systèmes pervasifs : la plateforme COALA (COntext Adaptation Platform)." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2010/document.

Full text
Abstract:
L’ étude de la littérature montre que la sensibilité au contexte est devenue un élément primordial pourla mise en place des services adaptatifs dans les applications interactives pervasives. Le contexten’est plus un modéle préétabli et prédéfini au moment de la conception des systèmes des applicationsinteractives mais plutôt une description dynamique des situations courantes qui peuvent êtredécouvertes dans les données de contexte et qui peuvent changer dynamiquement en fonction deschangements des exigences et des préférences des utilisateurs. Les applications pervasives doiventpouvoir s’exécuter dans différents contextes d’utilisation selon l’environnement de l’utilisateur, sonprofil, le terminal qu’il utilise, sa localisation, . . . Afin de répondre aux différentes exigences d’adaptationaux changements dynamiques des situations contextuelles, nous proposons des m´ecanismespermettant de fournir la trac¸abilitéde contexte sous la forme de Cartes de Visite COntextuelles(CVCO). Ces mécanismes s’appuient sur la technique de Mapping OWL afin de donner des modèlesontologiques de trac¸abilité de contexte. Les différentes ontologies créées pendant ce travail sontintégrées au sein de l’architecture de notre nouvelle plateforme d’adaptation de contexte COALA(COntext Adaptation Platform), afin de permettre l’adaptation automatique des services offerts parles application interactives pervasives. Ces travaux ont été r éalis ´es et appliqu éés dans le cadre d’unethèse en co-tutelle entre la Tunisie et France
The study of the literature proves that context-awareness has become a key element for the implementationof adaptive services in pervasive interactive applications. In fact, the present work focuseson the context of modeling issues for the adaptation of services provided by the invective pervasiveapplications to the sensitivity of context situations. The context is no longer a pre-established and predefinedtemplate when designing interactive applications systems but rather a dynamic description ofthe common situations that can be discovered in the context data and can dynamically be changedwhen changing user’s requirements and preferences. The systems of pervasive applications must beavailable in different contexts of use according to the user’s environment, the terminal being used, location. . .. The major challenge of these systems accordingly relates to the adaptation of the servicesoffered by interactive applications to the user context. In Order to respond to different requirementsof dynamic adaptation to changes in contextual situations, following the changes in usage patternsas well as the dynamics of the pervasive environment and the heterogeneity of context data sources,we propose mechanisms used to provide the traceability of the context as Virtual contextual Cards(VCOC). These works were carried out and applied as part a PhD under joint supervision betweenTunisia and France
APA, Harvard, Vancouver, ISO, and other styles
25

Saker, Ilham. "Modélisation des connaissances contextuelles pour la conception d'un Système d'Aide aux opérateurs en cas d'incidents." Paris 6, 1999. http://www.theses.fr/1999PA066631.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Goujon, Bénédicte. "Utilisation de l'exploration contextuelle pour l'aide à la veille technologique : réalisation du système informatique vigitext." Paris 4, 2000. http://www.theses.fr/2000PA040018.

Full text
Abstract:
Afin de faciliter l'exploitation des données textuelles dans une veille technologique, nous avons développé une méthode basée sur des notions générales, telles que l'amélioration, l'utilisation, le changement. Les connaissances linguistiques en anglais, associées à ces notions, permettent la mise en valeur d'extraits textuels introduisant des informations de veille : description de ce qui est amélioré, description d'utilisations, descriptions de ce qui a changé. Par exemple, les extraits suivants sont associés a la notion de changement : « the oligonucleotide is chem. *modified* », « *modification* of biosynthetic pathways by genetic engineering », « *alters* fruit ripening ». La méthode, mise au point à partir d'un corpus de références de brevets sur les plantes transgéniques, s'appuie sur l'exploration contextuelle. L'étude de corpus nous a amenée à identifier seize notions. Cette méthode est utilisable sur différents domaines, et adaptée pour l'analyse de documents traitant de sujets nouveaux, tels que les références de brevets. Le système vigitext, que nous avons développé avec le langage java, s'appuie sur 170 indicateurs linguistiques des notions et 67 règles d'exploration contextuelles, et fournit des extraits accessibles en sélectionnant chaque notion sur l'interface. L'utilisateur du système vigitext est le veilleur, qui peut consulter le contenu informatif d'une base sans avoir à formuler de requête.
APA, Harvard, Vancouver, ISO, and other styles
27

Wolff, Frédéric. "Analyse contextuelle des gestes de désignation en dialogue homme-machine." Nancy 1, 1999. http://www.theses.fr/1999NAN10042.

Full text
Abstract:
L'interface Homme-Machine multimodale se présente comme un partenaire de communication capable de s'adapter au langage naturel de l'utilisateur contrairement aux interfaces classiques face auxquelles il doit s'adapter aux capacités communicatives de la machine. Cependant la plupart des travaux se sont pour le moment consacrée à l'aspect oral de la communication multimodale, limitant la gestuelle du locuteur à des signes simplistes et stéréotypées comme le pointage. Cette étude s'occupe au contraire de modéliser les gestes de désignation naturels pouvant apparaître dans ces dialogues. Les travaux de psychologie de l'action nous enseignent que la gestuelle est un moyen de communication à la fois important et omniprésent dans les dialogues Homme-Homme. Ces théories nous montrent le rôle primordial que joue la perception dans la définition, le contrôle et l'interprétation des gestes. Nos travaux s'occupent de préciser les relations perception-action par une étude expérimentale reposant sur le principe des expériences de magicien d'Oz afin d'explorer l'action gestuelle dans le cadre spécifique des interfaces multimodales. Un logiciel original de traitement de tels expériences a été développé afin de collecter des données spatiales et temporelles plus précises que les données habituellement recueillies. L'étude de ce corpus a montré que l'expression notamment gestuelles est fortement déterminée par le contexte perceptif. Un modèle d'analyse des gestes en contexte perceptif est ainsi proposé, qui permet de faire face aux nombreuses sources de variabilité et d'ambiguïtés des trajectoires. Les principes d'affordances ou encore de la Gestalttheorie mis en oeuvre et issus de la psychologie, permettent d'initier un rapprochement entre perception et action, par là-même de replacer le geste dans son cadre de production
Usual interfaces suppose the user to translate his intention into machine language, i. E. Software commands. On the contrary, multimodal Human-Computer interfaces appear to the user as a communication partner able to adapt to his expression. However, almost ail works are devoted to the verbal aspect of human expression, and limit gesture to simple and stereotypic forms like pointings. This study is aimed at modelling natural referring gestures appearing in multimodal dialogues. Indeed, psychological works indicate the importance and omnipresence of gestures in Human-Human communication. Moreover, these approaches reveal the role of prime importance played by perception to prepare, produce, control and interpret gestures. Our work investigates the relations between perception and action on the basis of empirical date collected through a Wizard of Oz experiment. A dedicated experimentation soft-ware has been especially developed to record and study spatial and temporal dialogue features in more accurate way than usual data. The corpus study has shown the strong influence of perceptual context on multimodal expression and in particular on gesture. On this conclusion, a perception oriented contextual gesture analysis has been developed allowing to face wilh the numerous variability and ambiguity sources. Psychological principles as affordances and the Gestalttheorie laws introduced in our approach allow us to narrow perception and referring action, and 50 to put action back in its perceptual context of production
APA, Harvard, Vancouver, ISO, and other styles
28

Jeveme, Panta Franck. "Modélisation des métadonnées multi sources et hétérogènes pour le filtrage négatif et l'interrogation intelligente de grands volumes de données : application à la vidéosurveillance." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30098.

Full text
Abstract:
En raison du déploiement massif et progressif des systèmes de vidéosurveillance dans les grandes métropoles, l'analyse a posteriori des vidéos issues de ces systèmes est confrontée à de nombreux problèmes parmi lesquels: (i) l'interopérabilité, due aux différents formats de données (vidéos) et aux spécifications des caméras propres à chaque système ; (ii) le grand temps d'analyse lié à l'énorme quantité de données et métadonnées générées ; et (iii) la difficulté à interpréter les vidéos qui sont parfois à caractère incomplet. Face à ces problèmes, la nécessité de proposer un format commun d'échange des données et métadonnées de vidéosurveillance, de rendre le filtrage et l'interrogation des contenus vidéo plus efficaces, et de faciliter l'interprétation des contenus grâce aux informations exogènes (contextuelles) est une préoccupation incontournable. De ce fait, cette thèse se focalise sur la modélisation des métadonnées multi sources et hétérogènes afin de proposer un filtrage négatif et une interrogation intelligente des données, applicables aux systèmes de vidéosurveillance en particulier et adaptables aux systèmes traitant de grands volumes de données en général. L'objectif dans le cadre applicatif de cette thèse est de fournir aux opérateurs humains de vidéosurveillance des outils pour les aider à réduire le grand volume de vidéo à traiter ou à visionner et implicitement le temps de recherche. Nous proposons donc dans un premier temps une méthode de filtrage dit "négatif", qui permet d'éliminer parmi la masse de vidéos disponibles celles dont on sait au préalable en se basant sur un ensemble de critères, que le traitement n'aboutira à aucun résultat. Les critères utilisés pour l'approche de filtrage négatif proposé sont basés sur une modélisation des métadonnées décrivant la qualité et l'utilisabilité/utilité des vidéos. Ensuite, nous proposons un processus d'enrichissement contextuel basé sur les métadonnées issues du contexte, et permettant une interrogation intelligente des vidéos. Le processus d'enrichissement contextuel proposé est soutenu par un modèle de métadonnées extensible qui intègre des informations contextuelles de sources variées, et un mécanisme de requêtage multiniveaux avec une capacité de raisonnement spatio-temporel robuste aux requêtes floues. Enfin, nous proposons une modélisation générique des métadonnées de vidéosurveillance intégrant les métadonnées décrivant le mouvement et le champ de vue des caméras, les métadonnées issues des algorithmes d'analyse des contenus, et les métadonnées issues des informations contextuelles, afin de compléter le dictionnaire des métadonnées de la norme ISO 22311/IEC 79 qui vise à fournir un format commun d'export des données extraites des systèmes de vidéosurveillance. Les expérimentations menées à partir du framework développé dans cette thèse ont permis de démontrer la faisabilité de notre approche dans un cas réel et de valider nos propositions
Due to the massive and progressive deployment of video surveillance systems in major cities, a posteriori analysis of videos coming from these systems is facing many problems, including the following: (i) interoperability, due to the different data (video) formats and camera specifications associated to each system; (ii) time-consuming nature of analysis due to the huge amount of data and metadata generated; and (iii) difficulty to interpret videos which are sometimes incomplete. To address these issues, the need to propose a common format to exchange video surveillance data and metadata, to make video content filtering and querying more efficient, and to facilitate the interpretation of content using external (contextual) information is an unavoidable concern. Therefore, this thesis focuses on heterogeneous and multi-source metadata modeling in order to propose negative filtering and intelligent data querying, which are applicable to video surveillance systems in particular and adaptable to systems dealing with large volumes of data in general. In the applicative context of this thesis, the goal is to provide human CCTV operators with tools that help them to reduce the large volume of video to be processed or viewed and implicitly reduce search time. We therefore initially propose a so-called "negative" filtering method, which enables the elimination from the mass of available videos those that it is know in advance, based on a set of criteria, that the processing will not lead to any result. The criteria used for the proposed negative filtering approach are based on metadata modeling describing video quality and usability/usefulness. Then, we propose a contextual enrichment process based on metadata from the context, enabling intelligent querying of the videos. The proposed contextual enrichment process is supported by a scalable metadata model that integrates contextual information from a variety of sources, and a multi-level query mechanism with a spatio-temporal reasoning ability that is robust to fuzzy queries. Finally, we propose a generic metadata modeling of video surveillance metadata integrating metadata describing the movement and field of view of cameras, metadata from content analysis algorithms, and metadata from contextual information, in order to complete the metadata dictionary of the ISO 22311/IEC 79 standard, which aims to provide a common format to export data extracted from video surveillance systems. The experiments performed using the framework developed in this thesis showed the reliability of our approach in a real case and enabled the validation of our proposals
APA, Harvard, Vancouver, ISO, and other styles
29

Echchakoui, Said. "Conception du système de contrôle de la force de vente dans une perspective relationnelle validation contextuelle." Thèse, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/373.

Full text
Abstract:
In the literature, two sales force control systems advocated by Anderson and Oliver (1987) are predominant. These systems are representative of behavior control (eg, presentation quality) and results (eg sales volume). However, despite the importance of these two control systems, they are criticized by many authors. Given the benefits that provide relationship marketing to stakeholders, it is now the predominant approach in an organizational environment. Using this approach raises an important question to a sales manager: these two systems are they relevant for the control of the sales force in a relational perspective? My residence in company with the group"Le Lunetier", which adheres to a relational perspective, has shown that these two systems (behavior and results) are not relevant to control effectively its salespersons. I confirmed this by analyzing the literature review on the theoretical foundations, history and consequences of these two control systems. So, the main objective of this thesis is to design a control strategy to improve control the salespersons in a relational approach. This is achieved by designing a control system linking four perspectives that must be controlled to better manage the sales force. These prospects are learning and growth perspective, customer perspective, financial perspective and the internal process perspective. The research results confirm the relevance of the proposed control system for controlling the sales force in a relational perspective in the financial consulting context. Specifically, the main results derived confirms the relevance of this system. First, the control of learning and growth perspective is important since the main determinant of the value added by the representative customers derives from this perspective. This is the main determinant of brand equity representative. The latter is in turn influenced by two components of learning and growth perspective, human capital and reputation of external representing. Second, the results show that the customer perspective is as important as these dimensions (experiential and utilitarian value) have a significant influence on the financial performance of the representative. Finally, the control of the internal process perspective is relevant because it moderates the relationship between learning and growth perspective and customer perspective.
APA, Harvard, Vancouver, ISO, and other styles
30

Billet-Coat, Sophie. "Apports à l'acquisition interactive de connaissances contextuelles : SAPIENS, un système pour la translittération de textes hiéroglyphiques." Montpellier 2, 1995. http://www.theses.fr/1995MON20213.

Full text
Abstract:
La these presentee propose un paradigme d'acquisition de connaissances dedie a une expertise dite acquise par conditionnement qui retrace les connaissances reactionnelles qu'un expert a pu acquerir au cours de son experience. L'etude du systeme sapiens (systeme d'acquisition guide par l'interaction et les experimentations), dedie a la translitteration de textes hieroglyphiques egyptiens, nous a permis de developper des techniques de construction des differents modeles. Les modeles de resolution de problemes et de revision de connaissances sont empruntes a la methodologie kads tandis que le modele d'interaction est issu de l'apprentissage automatique. Nous decrivons egalement l'architecture logicielle multi-agents de sapiens et sa realisation dans le langage de programmation concurrente oriente objet actalk qui est un derive de smalltalk
APA, Harvard, Vancouver, ISO, and other styles
31

Chtourou, Ameni. "Contextual communication for intelligent transportation systems in hybrid networks." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG116.

Full text
Abstract:
Un rôle important des C-ITS est d'élargir la perception des usagers de la route afin d'éviter les accidents de la route. Une telle perception étendue est construite par l'échange d'informations entre les véhicules, les piétons et l'infrastructures à l'aide de différents types de messages, notamment le message CAM et le message de perception collective (CPM). Bien que les données transportées par ces messages soient critiques, elles consomment beaucoup de ressources. Actuellement, les CAM et les CPM sont diffusés périodiquement avec une fréquence minimale de 1 Hz. De plus, leurs fréquences peuvent être adaptées en fonction de la dynamique du véhicule (vitesse, accélération,...) et en outre avec l'état du canal sans fil lorsqu'une fonctionnalité de contrôle de congestion distribué (DCC) est activée. Cependant, il peut être vital pour un véhicule de transmettre ses informations à un débit élevé dans les zones critiques, telles que les intersections, même si cela peut entraîner un taux d'occupation de canal (CBR) plus élevé. Au contraire, les véhicules à faible risque de collision peuvent réduire leur fréquence de transmission pour éviter une charge inutile sur le canal. Par conséquent, la diffusion de tels messages doit être effectuée de manière efficace afin que les exigences d'application de la sécurité routière soient garanties et que l'utilisation des ressources soit optimisée.Cela nécessite que la communication soit contextuelle, capable de contrôler les paramètres de communication en tenant compte des exigences de l'application, de la disponibilité des technologies de communication et des ressources radio ainsi que des conditions environnementales (configuration des routes, densité du trafic, présence d'infrastructures en bordure de route, etc.) . Par conséquent, établir des contextes qui caractérisent les informations collectées environnementales et non environnementales est un défi majeur pour la communication contextuelle.La thèse vise à étudier et à développer une communication contextuelle pour les applications de sécurité routière. L'objectif principal est de concevoir des algorithmes capables d'optimiser la communication V2X sur la base d'une reconnaissance des contextes, notamment la disponibilité des ressources radio, les conditions environnementales et les exigences de l'application. Le travail comprend deux phases. Dans la première phase, nous présentons une architecture de communication contextuelle et nous modélisons des contextes en termes d'exigences applicatives (contexte1) et de contexte environnemental (contexte2). Le premier contexte vise à définir les exigences de l'application et à évaluer les performances des stratégies de diffusion des messages CAM par rapport aux exigences. Le contexte environnemental particulièrement la disponibilité de l'infrastructure permettant une communication I2V qui peut remplacer la communication V2V dans cette zone locale, ce qui améliore la perception collective et réduit la charge du canal grâce à sa plus grande couverture de communication et son plus large champ de vision de capteurs. La deuxième phase vise à concevoir et développer des algorithmes qui contrôlent le contenu des messages en tenant compte des contextes préalablement modélisés tout en assurant un haut niveau de perception/conscience collective
An important role of C-ITS is to extend perception of individual road users so that traffic accidents are avoided. Such an extended perception is built by information exchange among vehicles, pedestrians, and infrastructure using different types of messages including cooperative awareness message (CAM) and Collective Perception Message (CPM). While data carried by these messages are critical, they are resource-consuming. Currently, CAMs and CPMs are broadcasted periodically with a minimum frequency of 1Hz. In addition, their frequencies can be adapted based on vehicle dynamics (speed, acceleration,...) and further with wireless channel condition when a distributed congestion control (DCC) functionality is enabled. However, it might be vital for a vehicle to transmit its beacons at a high rate in critical areas, such as intersections, even if this may result in higher channel busy ratio (CBR). On the contrary, vehicles with a low risk of collision may reduce their transmission frequency to avoid unnecessary load on the channel. Hence, dissemination of such messages must be made in an efficient way so that road safety application requirement is ensured and resource utilization is optimized.This requires the communication be context-aware, being able to control communication parameters by taking into account application requirements, availability of communication technologies and radio resources as well as environmental condition (road layout, traffic density, presence of roadside infrastructure, and etc.). Hence, establishing contexts that characterize environmental and non-environmental collected information is a key challenge for context-aware communication.The thesis targets at studying and developing context aware communication for road safety applications. The main goal is to design algorithms that are able to optimize V2X communication based on a recognition of the contexts particularly radio resource availability, environmental condition and application requirements. The work consists of two phases. In the first phase, we present context aware communication architecture and study/model contexts in terms of application requirement (context1) and environmental context (context2). The first context aims to define application requirement and evaluate performances of Cooperative Awareness Service strategies against requirements. Environmental context consists on infrastructure availability allowing I2V communication that may replace V2V communication in that local area resulting in improved collective perception and reduced channel load thanks to its larger communication coverage and sensor field of view. The second phase intends to design and develop algorithms that control/select message data contents taking into account contexts previously modeled while ensuring a high level of collective perception/awareness
APA, Harvard, Vancouver, ISO, and other styles
32

Chamsi, Abu Quba Rana. "On enhancing recommender systems by utilizing general social networks combined with users goals and contextual awareness." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10061/document.

Full text
Abstract:
Nous sommes amenés chaque jour à prendre un nombre important de décisions : quel nouveau livre lire ? Quel film regarder ce soir ou où aller ce week-end ? De plus en plus, nous utilisons les ressources en ligne pour nous aider à prendre des décisions. Comme la prise de décision est assistée par le domaine en ligne, l'utilisation de systèmes de recommandation est devenue essentielle dans la vie quotidienne. Dans le même temps, les réseaux sociaux sont devenus une partie indispensable de ce processus ; partout dans le monde on les utilise quotidiennement pour récupérer des données de personne et de sources d'information en qui on a confiance. Quand les internautes passent du temps sur les réseaux sociaux, ils laissent de précieuses informations sur eux-mêmes. Cela a attiré l'attention des chercheurs et les professionnels de nombreux domaines académiques et commerciaux. Comme le domaine de la recommandation est un domaine qui a assisté à des changements de grande ampleur attribuable à des réseaux sociaux, il y a un intérêt évident pour les systèmes de recommandation sociale. Cependant, dans la littérature de ce domaine, nous avons constaté que de nombreux systèmes de recommandation sociale ont été évalués en utilisant des réseaux sociaux spécialisés comme Epinions, Flixter et d'autres types des réseaux sociaux de recommandation, qui tendent à être composées d'utilisateurs, d'articles, de notes et de relations. Ces solutions ne peuvent pas être étendues directement à des réseaux sociaux à usage général (GPSNs) comme Facebook et Twitter, qui sont des réseaux sociaux ouverts où les utilisateurs peuvent réaliser une variété d'actions utiles pour l'aide à la recommandation
We are surrounded by decisions to take, what book to read next? What film to watch this night and in the week-end? As the number of items became tremendous the use of recommendation systems became essential in daily life. At the same time social network become indispensable in people’s daily lives; people from different countries and age groups use them on a daily basis. While people are spending time on social networks, they are leaving valuable information about them attracting researchers’ attention. Recommendation is one domain that has been affected by the social networks widespread; the result is the social recommenders’ studies. However, in the literature we’ve found that most of the social recommenders were evaluated over Epinions, flixter and other type of domains based recommender social networks, which are composed of (users, items, ratings and relations). The proposed solutions can’t be extended directly to General Purpose Social Networks (GPSN) like Facebook and Twitter which are open social networks where users can do a variety of useful actions that can be useful for recommendation, but as they can’t rate items, these information are not possible to be used in recommender systems! Moreover, evaluations are based on the known metrics like MAE, and RMSE. This can’t guarantee the satisfaction of users, neither the good quality of recommendation
APA, Harvard, Vancouver, ISO, and other styles
33

Barros, de Sales André. "Gestion de bout en bout de la qualité des services distribués : surveillance et sélection par une approche Modelware." Toulouse 3, 2004. http://www.theses.fr/2004TOU30075.

Full text
Abstract:
Nos travaux concourent à offrir une sélection de services publiés en milieu distribué basée sur des informations de qualité observées. Par une approche informationnelle, nous nous sommes donnés les moyens de modéliser les influences Réseaux et Systèmes afin d'en automatiser leur gestion (identification de dépendances, déduction automatique de changement d'état,. . . ). Notre architecture conduite par des modèles informationnels (Modelware) nous a permis d'élaborer une démarche de conception d'applications de gestion, dégageant une double indépendance : l'une vis-à-vis des domaines spécifiques à gérer et l'autre vis-à-vis des plates-formes de gestion. Nous avons conçu une surveillance intégrée et contextuelle de services couplée à un service de "sélection avancée", offrant ainsi une instrumentation en temps réel des paramètres de Qualité de Service - QS. Notre solution a été expérimentée pour l'environnement CORBA, mettant en exergue les étapes de spécialisation de notre solution " Modelware " vers un environnement spécifique à gérer. Nous avons doté le service de courtage de CORBA, d'informations de QS des services publiés
Our work contributes to offer a selection of published services in distributed systems based on monitored quality management information. From an informational approach, we had the means to model the influence of Systems and Networks so as to automate their management (identification of dependencies, automatic deduction of change of state etc. ). Our informational model driven architecture (Modelware) led us to specify a designing method for management applications, expressing a double independency: one in regard to specific managed domains and another in relation to management platforms. The integrated and contextual monitoring of service was linked to an "advanced selection of service" thus offering a real-time instrumentation of Quality of Service - QoS parameters. Our solution was tested for a CORBA environment, emphasizing our "Modelware" solution's specification steps towards a specific environment to be managed. This QoS information was added to the services published in the CORBA Trader service
APA, Harvard, Vancouver, ISO, and other styles
34

Bouneffouf, Djallel. "DRARS, A Dynamic Risk-Aware Recommender System." Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-01026136.

Full text
Abstract:
L'immense quantité d'information générée et gérée au quotidien par les systèmes d'information et leurs utilisateurs conduit inéluctablement ?a la problématique de surcharge d'information. Dans ce contexte, les systèmes de recommandation traditionnels fournissent des informations pertinentes aux utilisateurs. Néanmoins, avec la propagation récente des dispositifs mobiles (Smartphones et tablettes), nous constatons une migration progressive des utilisateurs vers la manipulation d'environnements pérvasifs. Le problème avec les approches traditionnelles de recommandation est qu'elles n'utilisent pas toute l'information disponible pour produire des recommandations. Davantage d'informations contextuelles pourraient être utilisées dans le processus de recommandation pour aboutir à des recommandations plus précises. Les systèmes de recommandations sensibles au contexte (CARS) combinent les caractéristiques des systèmes sensibles au contexte et des systèmes de recommandation an de fournir des informations personnalisées aux utilisateurs dans des environnements ubiquitaires. Dans cette perspective ou tout ce qui concerne l'utilisateur est dynamique, les contenus qu'il manipule et son environnement, deux questions principales doivent être adressées : i) Comment prendre en compte la dynamicité des contenus de l'utilisateur ? et ii ) Comment éviter d'être intrusif en particulier dans des situations critiques ?. En réponse ?a ces questions, nous avons développé un système de recommandation dynamique et sensible au risque appelé DRARS (Dynamic Risk-Aware Recommender System), qui modélise la recommandation sensible au contexte comme un problème de bandit. Ce système combine une technique de filtrage basée sur le contenu et un algorithme de bandit contextuel. Nous avons montré que DRARS améliore la stratégie de l'algorithme UCB (Upper Con dence Bound), le meilleur algorithme actuellement disponible, en calculant la valeur d'exploration la plus optimale pour maintenir un compromis entre exploration et exploitation basé sur le niveau de risque de la situation courante de l'utilisateur. Nous avons mené des expériences dans un contexte industriel avec des données réelles et des utilisateurs réels et nous avons montré que la prise en compte du niveau de risque de la situation de l'utilisateur augmentait significativement la performance du système de recommandation.
APA, Harvard, Vancouver, ISO, and other styles
35

Ramu, Jean-Philippe. "Efficience d'une documentation opérationnelle contextuelle sur la performance des pilotes de transport aérien." Toulouse, ISAE, 2008. http://www.theses.fr/2008ESAE0020.

Full text
Abstract:
La documentation a rencontré des changements radicaux au cours de cette dernière décennie. Un pas important a été franchi avec l'avènement de la documentation en format électronique. La documentation opérationnelle aéronautique est elle aussi de plus en plus disponible en format électronique, et offre de nouvelles opportunités d'utilité et des défis d'utilisabilité. Nous nous attachons à étudier comment cette documentation peut être développée pour répondre à cette évolution. Grâce à une modélisation cognitive de la tâche de recherche d'information, nous catégorisons puis discutons les activités documentaires des pilotes telles que : support de performance, aide à la préparation ou entraînement. Dans ces différentes activités, l’interactivité entre le pilote et la documentation présuppose une notion de pertinence de l'information choisie. Nous utilisons la notion de contexte comme référentiel de pertinence. Notre modélisation du contexte est composée de trois catégories de descripteurs sémantiques, qui sont : les tâches, les conditions et les ressources. L'articulation de ces trois catégories de contexte définit l'ensemble des situations décrites dans la documentation aéronautique. La thèse met en application les propositions de notre modélisation en utilisant une approche centrée utilisateur. D'abord, un questionnaire sur l'utilisation de la documentation illustre les besoins des pilotes. Ensuite, deux cycles de conceptions/évaluations d'un prototype de documentation contextuelle permettent de spécifier une méthode de contextualisation de la documentation, ainsi que de proposer des interactions susceptibles de supporter les catégories d'activités documentaires des pilotes.
APA, Harvard, Vancouver, ISO, and other styles
36

Ravet, Alexandre. "Introducing contextual awareness within the state estimation process : Bayes filters with context-dependent time-heterogeneous distributions." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0045/document.

Full text
Abstract:
Ces travaux se focalisent sur une problématique fondamentale de la robotique autonome: l'estimation d'état. En effet, la plupart des approches actuelles permettant à un robot autonome de réaliser une tâche requièrent tout d'abord l'extraction d'une information d'état à partir de mesures capteurs bruitées. Ce vecteur d'état contient un ensemble de variables caractérisant le système à un instant t, comme la position du robot, sa vitesse, etc. En robotique comme dans de nombreux autres domaines, le filtrage bayésien est devenu la solution la plus populaire pour estimer l'état d'un système de façon robuste et à haute fréquence. Le succès du filtrage bayésien réside dans sa relative simplicité, que ce soit dans la mise en oeuvre des équations récursives de filtrage, ou encore dans la représentation simplifiée et intuitive du système au travers du modèle de Markov caché d'ordre 1. Généralement, un filtre bayésien repose sur une description minimaliste de l'état du système. Cette représentation simplifiée permet de conserver un temps d'exécution réduit, mais est également la conséquence de notre compréhension partielle du fonctionnement du système physique. Tous les aspects inconnus ou non modélisés du système sont ensuite représentés de façon globale par l'adjonction de composantes de bruit. Si ces composantes de bruit constituent une représentation simple et unifiée des aspects non modélisés du système, il reste néanmoins difficile de trouver des paramètres de bruit qui sont pertinents dans tous les contextes. En effet, à l'opposé de ce principe de modélisation, la problématique de navigation autonome pose le problème de la multiplicité d'environnements différents pour lesquels il est nécessaire de s'adapter intelligemment. Cette problématique nous amène donc à réviser la modélisation des aspects inconnus du systèmes sous forme de bruits stationnaires, et requiert l'introduction d'une information de contexte au sein du processus de filtrage. Dans ce cadre, ces travaux se focalisent spécifiquement sur l'amélioration du modèle état-observation sous-jacent au filtre bayésien afin de le doter de capacités d'adaptation vis-à-vis des perturbations contextuelles modifiant les performances capteurs. L'objectif principal est donc ici de trouver l'équilibre entre complexité du modèle et modélisation précise des phénomènes physiques représentés au travers d'une information de contexte. Nous établissons cet équilibre en modifiant le modèle état-observation afin de compenser les hypothèses simplistes de bruit stationnaire tout en continuant de bénéficier du faible temps de calcul requis par les équations récursives. Dans un premier temps, nous définissons une information de contexte basée sur un ensemble de mesures capteurs brutes, sans chercher à identifier précisément la typologie réelle de contextes de navigation. Toujours au sein du formalisme bayésien, nous exploitons des méthodes d'apprentissage statistique pour identifier une distribution d'observation non stationnaire et dépendante du contexte. cette distribution repose sur l'introduction de deux nouvelles composantes: un modèle destiné à prédire le bruit d'observation pour chaque capteur, et un modèle permettant de sélectionner un sous-ensemble de mesures à chaque itération du filtre. Nos investigations concernent également l'impact des méthodes d'apprentissage: dans le contexte historique du filtrage bayésien, le modèle état-observation est traditionnellement appris de manière générative, c'est à dire de manière à expliquer au mieux les paires état-observation contenues dans les données d'apprentissage. Cette méthode est ici remise en cause puisque, bien que fondamentalement génératif, le modèle état-observation est uniquement exploité au travers des équations de filtrage, et ses capacités génératives ne sont donc jamais utilisées[...]
Prevalent approaches for endowing robots with autonomous navigation capabilities require the estimation of a system state representation based on sensor noisy information. This system state usually depicts a set of dynamic variables such as the position, velocity and orientation required for the robot to achieve a task. In robotics, and in many other contexts, research efforts on state estimation converged towards the popular Bayes filter. The primary reason for the success of Bayes filtering is its simplicity, from the mathematical tools required by the recursive filtering equations, to the light and intuitive system representation provided by the underlying Hidden Markov Model. Recursive filtering also provides the most common and reliable method for real-time state estimation thanks to its computational efficiency. To keep low computational complexity, but also because real physical systems are not perfectly understood, and hence never faithfully represented by a model, Bayes filters usually rely on a minimum system state representation. Any unmodeled or unknown aspect of the system is then encompassed within additional noise terms. On the other hand, autonomous navigation requires robustness and adaptation capabilities regarding changing environments. This creates the need for introducing contextual awareness within the filtering process. In this thesis, we specifically focus on enhancing state estimation models for dealing with context-dependent sensor performance alterations. The issue is then to establish a practical balance between computational complexity and realistic modelling of the system through the introduction of contextual information. We investigate on achieving this balance by extending the classical Bayes filter in order to compensate for the optimistic assumptions made by modeling the system through time-homogeneous distributions, while still benefiting from the recursive filtering computational efficiency. Based on raw data provided by a set of sensors and any relevant information, we start by introducing a new context variable, while never trying to characterize a concrete context typology. Within the Bayesian framework, machine learning techniques are then used in order to automatically define a context-dependent time-heterogeneous observation distribution by introducing two additional models: a model providing observation noise predictions and a model providing observation selection rules.The investigation also concerns the impact of the training method we choose. In the context of Bayesian filtering, the model we exploit is usually trained in the generative manner. Thus, optimal parameters are those that allow the model to explain at best the data observed in the training set. On the other hand, discriminative training can implicitly help in compensating for mismodeled aspects of the system, by optimizing the model parameters with respect to the ultimate system performance, the estimate accuracy. Going deeper in the discussion, we also analyse how the training method changes the meaning of the model, and how we can properly exploit this property. Throughout the manuscript, results obtained with simulated and representative real data are presented and analysed
APA, Harvard, Vancouver, ISO, and other styles
37

Berri, Jawad Abdelfettah. "Contribution à la méthode d'exploration contextuelle : applications au résumé automatique et aux représentations temporelles réalisation informatique du système SERAPHIN." Paris 4, 1996. http://www.theses.fr/1996PA040041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Petit, Mathieu. "Approche spatiale pour la caractérisation du contexte d'exécution d'un système d'information ubiquitaire." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00511919.

Full text
Abstract:
Les nouvelles technologies en matière d'accès à l'information, de communication sans-fil et de localisation d'informations ouvrent la voie à des innovations majeures dans l'utilisation des systèmes informatiques. Ces avancées permettent d'imaginer de nouveaux usages informatiques dont la mise en œuvre motive le développement de méthodes de conception appropriées. Plus particulièrement, l'informatique mobile combine désormais des enjeux conceptuels tels que l'accès à des services par un utilisateur en mobilité, la généralisation d'outils de localisation, la compréhension de systèmes complexes par un public non-expert ou l'importante variabilité des situations d'exécution. Cette thèse propose un cadre de conception qui adresse certains des enjeux pour la mobilité des systèmes d'information. Dans cette perspective, les attentes des utilisateurs et les contraintes technologiques inhérentes à la mobilité des constituants du système définissent un espace contextuel dont les dimensions sont prises en compte dès les premières étapes de la conception. Le modèle proposé établit comme point d'entrée une description de l'espace géographique du système pour différencier un ensemble de contextes d'exécution. L'énoncé de ces contextes permet de corréler les attentes des utilisateurs avec les capacités techniques de la plate-forme et d'offrir le niveau fonctionnel le plus acceptable dans une situation donnée. Dans un second temps, les différentes fonctionnalités et les données mises en œuvre dans chaque contexte d'exécution peuvent être ordonnées ou filtrées afin d'optimiser la présentation des informations aux utilisateurs. Ces recommandations sont produites par l'analyse conjointe des préférences d'utilisateurs selon leurs interactions et leurs comportements spatiaux. Deux cadres expérimentaux viennent illustrer les propositions du modèle. La conception d'un système mobile de suivi de compétition nautique prend en compte différents contextes d'exécution et adapte un niveau de service à des situations dégradées. Un système de documentation et de visite de campus illustre les algorithmes de recommandation et affine la présentation d'informations localement à chaque contexte d'exécution.
APA, Harvard, Vancouver, ISO, and other styles
39

Nicol, Olivier. "Data-driven evaluation of contextual bandit algorithms and applications to dynamic recommendation." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10211/document.

Full text
Abstract:
Ce travail de thèse a été réalisé dans le contexte de la recommandation dynamique. La recommandation est l'action de fournir du contenu personnalisé à un utilisateur utilisant une application, dans le but d'améliorer son utilisation e.g. la recommandation d'un produit sur un site marchant ou d'un article sur un blog. La recommandation est considérée comme dynamique lorsque le contenu à recommander ou encore les goûts des utilisateurs évoluent rapidement e.g. la recommandation d'actualités. Beaucoup d'applications auxquelles nous nous intéressons génèrent d'énormes quantités de données grâce à leurs millions d'utilisateurs sur Internet. Néanmoins, l'utilisation de ces données pour évaluer une nouvelle technique de recommandation ou encore comparer deux algorithmes de recommandation est loin d'être triviale. C'est cette problématique que nous considérons ici. Certaines approches ont déjà été proposées. Néanmoins elles sont très peu étudiées autant théoriquement (biais non quantifié, borne de convergence assez large...) qu'empiriquement (expériences sur données privées). Dans ce travail nous commençons par combler de nombreuses lacunes de l'analyse théorique. Ensuite nous discutons les résultats très surprenants d'une expérience à très grande échelle : une compétition ouverte au public que nous avons organisée. Cette compétition nous a permis de mettre en évidence une source de biais considérable et constamment présente en pratique : l'accélération temporelle. La suite de ce travail s'attaque à ce problème. Nous montrons qu'une approche à base de bootstrap permet de réduire mais surtout de contrôler ce biais
The context of this thesis work is dynamic recommendation. Recommendation is the action, for an intelligent system, to supply a user of an application with personalized content so as to enhance what is refered to as "user experience" e.g. recommending a product on a merchant website or even an article on a blog. Recommendation is considered dynamic when the content to recommend or user tastes evolve rapidly e.g. news recommendation. Many applications that are of interest to us generates a tremendous amount of data through the millions of online users they have. Nevertheless, using this data to evaluate a new recommendation technique or even compare two dynamic recommendation algorithms is far from trivial. This is the problem we consider here. Some approaches have already been proposed. Nonetheless they were not studied very thoroughly both from a theoretical point of view (unquantified bias, loose convergence bounds...) and from an empirical one (experiments on private data only). In this work we start by filling many blanks within the theoretical analysis. Then we comment on the result of an experiment of unprecedented scale in this area: a public challenge we organized. This challenge along with a some complementary experiments revealed a unexpected source of a huge bias: time acceleration. The rest of this work tackles this issue. We show that a bootstrap-based approach allows to significantly reduce this bias and more importantly to control it
APA, Harvard, Vancouver, ISO, and other styles
40

Hermosillo, Gabriel. "Towards Creating Context-Aware Dynamically-Adaptable Business Processes Using Complex Event Processing." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00709303.

Full text
Abstract:
En plus de l'utilisation des appareils ubiquitaires qui continue à croître, nous avons accès de plus en plus à d'informations dites contextuelles. Ces informations permettent de connaître l'état de notre environnement et nous aident à prendre les décisions de notre vie quotidienne en fonction du contexte dans lequel nous nous positionnons. Les processus métiers informatiques sont de plus en plus en expansion, alors que les activités qu'ils traitent deviennent automatisées. Toutefois, lorsqu'il s'agit de processus métiers dans un domaine particulier, il y a un manque d'intégration avec ces informations contextuelles. Nous pouvons envisager actuellement une situation donnée dans une partie bien définie du processus à un moment donné et prendre une décision basée sur cette information, mais nous ne pouvons pas contrôler ces informations contextuelles en temps réel et adapter le processus en conséquence, comme nous le faisons dans la vie normale. De plus, la nature statique des processus métiers ne leur permet pas d'être modifiés dynamiquement, les rendant ainsi moins utiles dans un nouveau contexte. Si nous voulons changer le comportement d'un processus métier, nous devons le stopper, le modifier et le redéployer entièrement, ce qui fait perdre toutes les exécutions en cours et l'information associée. Pour répondre à ces problèmes, dans cette thèse, nous présentons le cadre logiciel CEVICHE. Nous proposons une approche qui permet de représenter des processus métiers sensibles au contexte où les informations de contexte sont considérées comme des événements contrôlés en temps réel. Pour cela, nous nous basons sur une nouvelle approche appelée Complex Event Processing (CEP). En utilisant un outil externe pour contrôler le contexte en temps réel, nous sommes alors en mesure de dépasser les limites d'accés à l'information uniquement à des endroits bien précis du processus. Cependant, la connaissance de ces événements ne suffit pas. Nous avons, de plus, besoin d'être capable d'adapter nos processus en conséquence à l'exécution. Avec CEVICHE, nous intégrons les informations obtenues à partir du contexte avec la capacité d'adaptation des processus métiers en cours d'exécution. De plus, l'une des originalités du cadre logiciel CEVICHE vient de la définition d'une opération de désadaptation et de sa mise en œuvre. Défaire l'adaptation peut facilement se passer mal et conduire à des états non désirés et rendre les processus instables. Naïvement considérée comme une tâche triviale, cette question a été peu considérée quand on regarde les approches dynamiques actuelles. Nous proposons donc un modèle formel de ce mécanisme dans CEVICHE. La réalisation du cadre logiciel CEVICHE offre des propriétés de flexibilité et de dynamicité aux processus métiers en se basant sur une approche à composants, permettant ainsi la modification des liaisons en cours d'exécution. En outre, avec CEVICHE, nous apportons une propriété de stabilité au niveau du traitement des événements complexes. Comme toute nouvelle approche, le traitement des événements complexes n'est pas normalisé et est en cours d'évolution, chaque outil utilisant son propre langage pour les exprimer. En définissant notre propre langage, Adaptive Business Process Language (ABPL), comme un langage pivot, CEVICHE facilite l'utilisation de CEP sans les inconvénients de l'adoption anticipée de l'approche. Nous utilisons une technique de type plug-in qui permet aux événements définis en ABPL d'être utilisés dans pratiquement n'importe quel moteur CEP. Cette approche rend les règles de traitement des événements plus faciles à maintenir, car nous centralisons la mise à jour au niveau du plug-in lorsque le langage CEP évolue, ou si nous décidons l'utilisation d'un autre outil, au lieu de mettre à jour toutes les définitions d'événements. Finalement, nous avons validé notre approche en mettant en œuvre un scénario de crise nucléaire, avec des cas d'utilisation qui impliquent de nombreux acteurs, des informations de contexte et des conditions d'adaptation.
APA, Harvard, Vancouver, ISO, and other styles
41

Péroumalnaïk, Mathias. "Etude contextuelle d'un système de classeurs de type Pittsburgh adapté dans le cadre de la prévention des risques cycloniques dans la Caraïbe." Antilles-Guyane, 2010. http://www.theses.fr/2010AGUY0387.

Full text
Abstract:
Cette étude se réalise dans le cadre d'un projet Interreg lIlb (fonds européens et régionaux) intitulé "Prévision des trajectoires, de l'évolution du potentiel dynamique et de l'impact des ouragans à l'échelle des Îles de la Caraïbe. ". En effet, il s'agit d'étudier l'application d'un système de classeurs apprenant, le système de classeurs de type Pittsburgh adapté (APCS), à la construction d'une prédiction de l'impact des vents liés à un phénomène cyclonique à l'échelle des îles de la Caraïbe, et plus particulièrement pour le territoire utilisé dans le cadre de cette étude: la Guadeloupe. La modélisation finale de l'apprentissage de l'impact du phénomène cyclonique a été développée en se reposant sur la nature des données physiques et statistiques auxquelles nous avons eu accès. En effet, nous sommes contraints de modéliser l'impact cyclonique comme un phénomène ponctuel, sans continuité temporelle, contrairement à la réalité qui elle, est continue. Néanmoins, afin de prendre en compte chacun de ces cas de figure possibles, nous avons, au cours de ce document, étudié les performances et comportements de l'APCS à la fois en environnement de classification et en environnement multi-étapes (avec réintroduction de la prédiction dans la chaine d'apprentissage). Les mesures et expériences réalisées se sont soldées par des apports théoriques majeurs portant à la fois sur la compréhesion de ce système apprenant mais aussi sur l'amélioration de ses performances dans chacun des cas précédemment cités. Nous concluons cette étude sur une présentation du travail d'ingénieurie réalisé ainsi que sur les prédictions préliminaires obtenues et visualisables sur la plateforme PREVIOS
This study is carried out in the framework of an Interreg IIlb project (European and regional funds): "Forecast of the trajectories, of evolution of the dynamic potential and the impact of hurricanes at the scale of the islands of the Caribbean. ". The objective of that Ph. D thesis is to study the use of a leaming system, the Adapted Pittsburgh Classifier System (APCS), in order to perform a prediction of the impact of the winds related to a cyclonic phenomenon at the Caribbean islands level, and more particulary for the territory we selected to perform this study: the island of Guadeloupe. Our design of the impact of a hurricane was developped in relation to the physical and statistical data that was provided. Due to this data, we had to model hurricanes as ponctual phenomenons, contrary to what they are in reality: continuous phenomenons. Nevertheless, in arder to take in account each possible case of use, we studied the performances and the behavior of APCS on both classification and multi-step problems (reintroduction of the prediction in the cognitive chain). Our measures and experiments allowed us to bring some major improvements to this particular cognitive system, in each case of learning problem previously proposee. We conclude our study by a presentation of the work carried out within a geographic information systems in order to collect the data and to perform and visualize the final prediction. A prototype of the final PREVIOS platform is availale online at the following adress : http://murene. Univ-aq. Fr:8008/
APA, Harvard, Vancouver, ISO, and other styles
42

Salhi, Yakoub. "Structures multi-contextuelles et logiques modales intuititionnistes et hybrides." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10087/document.

Full text
Abstract:
En informatique, les logiques formelles ont une place centrale dans la représentation et le traitement des connaissances. Elles sont utilisées pour la modélisation et la vérification de systèmes informatiques et de leurs propriétés ainsi que pour la formalisation de différents types de raisonnement. Dans ce contexte il existe un large spectre de logiques non-classiques parmi lesquelles les logiques modales jouent un rôle important. Alors que les logiques modales classiques ont été largement étudiées, nous nous focalisons dans cette thèse sur les logiques modales intuitionnistes et aussi hybrides floues en abordant un certain nombre de questions principalement du point de vue de la théorie de la démonstration. Nous proposons pour ces logiques de nouveaux systèmes de preuve, notamment suivant les formalismes de déduction naturelle et de calcul des séquents, qui sont fondés sur de nouvelles structures multi-contextuelles généralisant la structure standard de séquent
In computer science, formal logics are central for studying the representation and the treatment of knowledge. Indeed, they are widely used for modeling and verifying computer systems and their properties and also for formalizing different kinds of reasoning. In this context there exist many non-classical logics and among them modal logics play a key role. As classical modal logics have been deeply studied, we focus in this thesis on the intuitionistic modal logics and also on fuzzy hybrid logics by studying some important questions mainly from the viewpoint of proof theory . We define for these logics new proof systems, following natural deduction and sequent calculus formalisms, that are based on new multi-contextual structures generalizing the standard sequent structure
APA, Harvard, Vancouver, ISO, and other styles
43

Ben, Ali Boutheina. "Méthode automatique d’annotations sémantiques et indexation de documents textuels pour l’extraction d’objets pédagogiques." Thesis, Paris 4, 2014. http://www.theses.fr/2014PA040008.

Full text
Abstract:
L'analyse du contenu devient une nécessité pour l'accès et l'utilisation de l'information en particulier dans le domaine de la didactique des disciplines. Nous proposons un système SRIDOP d'annotations sémantiques et d'indexation des documents pédagogiques à partir des annotations, en se basant sur la méthode d'Exploration Contextuelle qui, à un identificateur linguistique d'un concept, associe une annotation d'un segment en tenant compte d'indices contextuels gérés par des règles. SRIDOP est composé de quatre modules consécutifs : (1)Segmentation automatique des documents en paragraphes et phrases ; (2) annotation selon différents points de vue de fouille (exemple: identification de définitions, exemples, exercices, etc.) en se basant sur une ontologie linguistique de concepts associés à un point de vue de fouille (carte sémantique) et de ressources linguistiques (indicateurs de concepts, indices linguistiques et règles d'Exploration Contextuelle) ; (3) extraction d'objets pédagogiques ; (4) constitution de fiches pédagogiques exploitables par les utilisateurs. SRIDOP est évalué et comparé à d'autres systèmes
Content analysis is a need for access and use of information especially in the field of didactics. We propose a system SRIDOP of semantic annotations and indexing of learning objects from these annotations, based on the Contextual Exploration method, that associate annotation of a segment to a linguistic identifier of a concept, taking into account contextual clues managed by rules. SRIDOP is composed of four consecutive modules: (1) Automatic segmentation of documents into paragraphs and sentences; (2) annotation from different points of view of search (eg identification of definitions, examples, exercises, etc..) based on a linguistic ontology of concepts associated with a point of view of search (semantic map) and linguistic resources (indicators of concepts, linguistic clues and contextual exploration rules); (3) extraction of learning objects, (4) establishment of learning sheets exploitable by users. SRIDOP is evaluated and compared to other systems
APA, Harvard, Vancouver, ISO, and other styles
44

Aljnidi, Mohamad. "Vers un système d'administration de la sécurité pour les réseaux autonomes." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00570696.

Full text
Abstract:
L'administration de la sécurité dans les réseaux sans infrastructures est assez complexe pour être réalisée efficacement par des êtres-humains. Notre objectif est de la rendre autonome. Dans ce cadre, cette thèse propose un système autonome de contrôle d'accès. On fixe la définition d'un réseau autonome, et certaines bases de la sécurité autonome. Ensuite, on définit un type de réseau autonome, organisationnel et sans infrastructure, et on l'appelle iorg-autonet. Les nœuds d'un iorg-autonet sont catégorises en termes de fiabilité, disponibilité et capacités, ce qui leur permet d'acquérir différents rôles, dont certains donnent droit a coopérer avec d'autres nœuds pour gérer le réseau. On définit pour les iorg-autonets un modèle de contrôle d'accès base sur les relations sécurisées, et on l'appelle srbac. Ses politiques sont a appliquer quand deux nœuds, déjà relies par une relation sécurisée leur spécifiant des rôles, se communiquent. Le modèle srbac est une version développée et adaptée du modèle rbac. On propose aussi une extension du profile rbac du langage xacml v2.0 pour la spécification des politiques srbac. On définit pour srbac le modèle administratif associe asrbac pour parvenir a notre système autonome de contrôle d'accès. Le modèle asrbac est une extension du modèle administratif distribue arbac02 qui est associe au modèle rbac. Cette extension rajoute des aspects contextuels, cognitifs, adaptatifs, coopératifs et autonomes. Asrbac est base sur srbac lui-même, ce qui représente la base du comportement autonome dans notre solution. Un exemple d'un système srbac/asrbac d'un réseau domestique et un modèle de réalisation valident et matérialisent nos contributions.
APA, Harvard, Vancouver, ISO, and other styles
45

Nicaud, Lydia. "Le raisonnement caricatural : un guide pour le raisonnement dans un système question-réponse en langage naturel." Paris 11, 1986. http://www.theses.fr/1986PA112075.

Full text
Abstract:
Dans un système de réponse à des questions en langage naturel utilisant de nombreuses règles de production, il est toujours difficile de maîtriser le choix des règles et de déterminer le but, sans provoquer une explosion combinatoire, donc des temps de réponse inacceptables. Cette thèse propose une méthodologie permettant de résoudre ces problèmes par une technique de guidage du raisonnement qui lui fournit des jalons à partir desquels il pourra affiner ses conclusions. Elle a pour rôle de mettre en place un filtre perfectionné dans un système de raisonnement. L’idée dominante est de regrouper les connaissances afin de les traiter à un niveau très grossier, pour vérifier la possibilité d’obtenir une réponse à une question posée
Question answering systems in natural language, using a lot of production rules, have some difficulties to choice the relevant rules, to determine the goal to reach, without inducing combinatory explosion. This thesis proposes a reasoning strategy which works upon rude knowledge, in order to blaze trails and to provide a guiding for a natural language reasoned. This strategy is also able to pick up a few number of relevant rules, and to select relevant goals
APA, Harvard, Vancouver, ISO, and other styles
46

Pinzari, Ana. "Pré-indexation vidéo à l'acquisition, de l'ontologie à l'architecture embarquée." Compiègne, 2012. http://www.theses.fr/2012COMP2011.

Full text
Abstract:
Dans cette thèse nous présentons les travaux de recherche menés dans le sein du projet MediaMap. La valorisation et la qualification précoce du contenu vidéo sont les ambitions concurrentes dans le cadre de ce projet. Par conséquent, l’introduction d’un caméscope sémantique de nouvelle génération devient l’outil fondamental pour obtenir ces objectifs. La possibilité d’analyse automatique par le dispositif de prise de vue va contribuer à plusieurs aspects : enrichir le contenu vidéo avec des métadonnées et aider les amateurs à atteindre des contenus vidéo d’une meilleure qualité éditoriale. L’idée est d’équiper le dispositif de prise de vue avec des fonctionnalités permettant à la fois d’indexer et de vérifier le contenu capturé. Pour atteindre cet objectif, des outils d’aide à la scénarisation sont intégrés dans la caméscope. Dés lors, il sera possible aux amateurs de créer des contenus de qualité en se guidant justement du scénario intégré, et de vérifier le contenu grâce aux fonctions d’analyse vidéo. D’autre part, le scénario ainsi codifié et affiné, peut-être employé par les professionnels lors d’une recherche contextuelle pour l’édition ou la diffusion. Evaluer la qualité de la prise de vue pendant le tournage est un problème délicat, car il requiert l’exécution en temps réel de plusieurs algorithmes de traitement d’images, en présence des suffisantes contraintes de ressources matérielles. Dans la suite de la thèse nous décrivons la gamme d’algorithmes de traitement d’images nécessaires pour la vérification sémantique des prises de vue, et défendons leur implémentation optimisée par la proposition d’une approche dynamique d’exécution
In this thesis we present our research work accomplished in the frame of the MediaMap project. This project has two concurrent objectives concerning the video content : to increase its value for exploration and to perform its early qualification for further processing. Thus, the introduction of a semantic camera of a new generation becomes a fundamental step towards these objectives. The capability to automatically analyze the video content by a video recording device has several advantages, among which the most important are the enhancement of the video content with meta-data and the assistance provided to the amateur in producing video contents of a superior editing quality. Moreover, the functions enabling simultaneously to index and verify the quality of recorded sequences can be directly integrated in the video recording device. In order to achieve this objective, efficient video capture assistance tools need to embedded in the camera, so that the amateur can create high quality content following the guidelines of the integrated scenarios, and qualify the content using the embedded video analysis functions. Even more, the codified and refined scenarios can be further used by profession also in the context search for editing and distribution. The evaluation of the video quality during the recording phase is a challenging problem because it requires a real-time execution of several complex image processing algorithms, in the context of limited hardware resources. In this work we present a range of image processing algorithms that are essential to the semantic video verification and show how their implementation can be optimized in the dynamic execution
APA, Harvard, Vancouver, ISO, and other styles
47

Bouhafs, Asma. "Utilisation de la méthode d'exploration contextuelle pour une extraction d'informations sur le web dédiées à la veille : réalisation du système informatique JavaVeille." Paris 4, 2005. http://www.theses.fr/2005PA040018.

Full text
Abstract:
Afin de proposer à l'utilisateur un système d'extraction d'informations pour un objectif d'aide à la veille, nous avons développé une méthode basée sur des notions générales, telles que la , la , la , la . Les connaissances linguistiques, associées à ces notions, permettent la mise en valeur d'extraits textuels introduisant des informations de veille qui tentent de décrire une relation entre des actants : "qui a rencontré qui ? ", "Les acteurs d'une transaction ou d'une négociation ou d'une coopération ou encore d'un conflit? ". La méthode, mise au point à partir d'un corpus de références d'articles de journaux traitant des sujets politiques, sociaux et économiques, permet dans un premier temps d'identifier les entités nommées (personnes, compagnies, organisations, localisations, dates, etc. ) en utilisant une approche qui repose à la fois sur la structure interne des entités nommées, de dictionnaires, et l'étude du contexte. Dans un deuxième temps, l'annotation des relations et des notions évoquées dans les documents s'appuie sur l'exploration contextuelle. L'étude du corpus nous a amené à identifier dix notions. Cette méthode est utilisable sur différents domaines, et adaptée pour l'analyse de documents traitant de sujets nouveaux. Notre démarche a abouti à la réalisation du système JavaVeille développé avec le langage Java, qui s'appuie sur plus de 750 indicateurs linguistiques et 85 règles d'exploration contextuelle. JavaVeille permet de faciliter l'extraction des relations et des notions recherchées en utilisant la technologie XML. Il propose aussi un graphe représentatif des extraits repérés lors de l'analyse du document. L'utilisateur du système JavaVeille est le veilleur, qui peut consulter le contenu informatif d'une base sans avoir à formuler de requête
In order to propose to the user an information extraction system for an objective of assistance to competitive intelligence, we developed a method based on general concepts, such as the , , the , etc. Linguistic knowledge is used to emphasize textual extracts introducing Competitive Intelligence information which tries to describe a relation between agents: “who met who?”, “actors of a transaction or a negotiation, or a co-operation or a conflict?” The method, developed from a corpus of newspapers articles dealing with political, social and economical subjects, firstly identifies the named entities (people, companies, places, time, etc. ) by using an approach, which relies at the same time on the structure of the named entities, the dictionaries, and the context. Secondly, the annotation of the relations and concepts evoked in the documents are based on contextual exploration. The study of the corpus has enabled us to identify ten concepts. This method can be used on various fields, and is adapted for the analysis of documents dealing with new subjects. Our study led to the development of the JavaVeille system developed with the Java language and rests on more than 750 linguistic indicators and 85 rules of contextual exploration. JavaVeille makes it possible to facilitate the extraction of the relations and the required concepts by using XML technology. It also proposes a graph representative of the extracts located during the analysis of the document. The principal user of the JavaVeille system is the expert in competitive intelligence, who can consult the informative content of a database without formulating any request
APA, Harvard, Vancouver, ISO, and other styles
48

Ben, Hazez Slim. "Un modèle d'exploration contextuelle du contenu des documents textuels : conception et réalisation d'un système informatique SEMANTEXT de filtrage et de structuration des textes." Paris 4, 2002. http://www.theses.fr/2002PA040088.

Full text
Abstract:
Le travail présenté dans cette thèse se focalise sur le développement de technique d'accès aux information textuelles selon différents points de vue. Dans cette optique, nous proposons un modèle un modèle en trois niveaux d'exploration contextuelle du contenu des textes. Ce modèle à pour bue de décrire d'une manière compacte et intuitive des données linguistiques et des opérations premier niveau est constitué d'un langage de description de motifs linguistiques. Le deuxième propose une algèbre d'expressions de repérage contextuel (ou ERC). Le dernier consiste en un langage de description de règles d'exploration contextuelle. Ces composants permettent de décrire divers phénomène linguistiques et textuels de surface et de spécifier des opérations de sélection qui portent sur différents niveaux d'organisation du texte. Ils forment le noyau de bases du système SEMAN'TEXT dont l'architecture s'articule autour d'un modèle dynamique du texte représenté sous forme d'un graphe décoré. L'architecture adoptée permet de réaliser et de mettre en interaction plusieurs tâches d'extraction. Ce travail s'appuie sur notre première expérience dans le développement du système CONTEXTO
This work outlines the development of technical means to research textual data from several point of view. In this framework, we propose a model with three levels of contextual exploration of content of textual documents. This models aims to describe linguistic data and textual operations which are dedicated to several extracting and labelling tasks of textual objects. The first level is a linguistic pattern matching language. The second one puts forward an algebra of describing expressions of contextual text searching. The last one is a language of contextual exploration rules. These components provide means to describe several linguistic and textual shallow regularities and to specify operations of contextual text searching. These components are the kermel of SEMAN'TEXT. The architecture of semantext permits the development and the interaction of several extracting tasks through a dynamic text model (represented by a decorated graph). This work relies on my first study acquired in the framework of the design of CONTEXTO
APA, Harvard, Vancouver, ISO, and other styles
49

Gutowski, Nicolas. "Recommandation contextuelle de services : application à la recommandation d'évènements culturels dans la ville intelligente." Thesis, Angers, 2019. http://www.theses.fr/2019ANGE0030.

Full text
Abstract:
Les algorithmes de bandits-manchots pour les systèmes de recommandation sensibles au contexte font aujourd’hui l’objet de nombreuses études. Afin de répondre aux enjeux de cette thématique, les contributions de cette thèse sont organisées autour de 3 axes : 1) les systèmes de recommandation ; 2) les algorithmes de bandits-manchots (contextuels et non contextuels) ; 3) le contexte. La première partie de nos contributions a porté sur les algorithmes de bandits-manchots pour la recommandation. Elle aborde la diversification des recommandations visant à améliorer la précision individuelle. La seconde partie a porté sur la capture de contexte, le raisonnement contextuel pour les systèmes de recommandation d’événements culturels dans la ville intelligente, et l’enrichissement dynamique de contexte pour les algorithmes de bandits-manchots contextuels
Nowadays, Multi-Armed Bandit algorithms for context-aware recommendation systems are extensively studied. In order to meet challenges underlying this field of research, our works and contributions have been organised according to three research directions : 1) recommendation systems ; 2) Multi-Armed Bandit (MAB) and Contextual Multi-Armed Bandit algorithms (CMAB) ; 3) context.The first part of our contributions focuses on MAB and CMAB algorithms for recommendation. It particularly addresses diversification of recommendations for improving individual accuracy. The second part is focused on contextacquisition, on context reasoning for cultural events recommendation systems for Smart Cities, and on dynamic context enrichment for CMAB algorithms
APA, Harvard, Vancouver, ISO, and other styles
50

Ben, Mosbah Aziza. "Context-aware mechanisms for device discovery optimization." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0018.

Full text
Abstract:
La recherche dans les réseaux de communication cherche à améliorer la capacité et les performances des technologies de réseaux tout en satisfaisant à la fois la demande croissante d’instantanéité des accès et des échanges d’information. Par exemple, les travaux sur les systèmes sans-fil de cinquième génération (5G) visent à augmenter le débit de données et l’efficacité spectrale mais aussi à réduire la latence et la consommation d’énergie. Dans ce contexte, la mise en réseau basée sur la proximité est envisagée afin d’améliorer l’échange d’information entre périphériques proches, même dans le cas où aucune infrastructure n’est disponible. Une composante essentielle de ces solutions est la capacité de rapidement détecter (ou découvrir) les autres systèmes à proximité. Bien que l’utilisation de la découverte des systèmes et de services ne soit pas à proprement parler une nouveauté dans les réseaux, son adoption dans les réseaux sans-fil a augmenté l’importance et la pertinence de ce type de mécanismes. Par conséquence, l’objectif de cette thèse est d’optimiser les performances du processus de découverte en utilisant des mécanismes contextuels. Dans un premier temps, nous commençons par une description préliminaire des défis auxquels sont confrontés les utilisateurs du réseau et comment les solutions actuelles (c’est-à-dire Long Term Evolution (LTE)) ne peuvent pas couvrir leurs besoins. Dans un deuxième temps, nous présentons l’architecture utilisée pour évaluer nos propositions: l’architecture appareil-à-appareil (D2D) qui est définie par le programme de partenariat de troisième génération (3GPP) pour être utilisée dans les réseaux LTE. Nous mettrons tout particulièrement l’accent sur la description du processus de découverte tel qu’il est défini dans les spécifications. Finalement, nous présentons une étude analytique, avec un modèle de mise en oeuvre pour tester et valider les performances de la découverte directe. En utilisant cette analyse, nous proposons un algorithme de transmission adaptatif qui optimise le processus de découverte pour les topologies statiques. Cette contribution sert de base à des algorithmes étendus et améliorés ciblant premièrement des scénarios où la disponibilité de données historiques permet de prédire les fluctuations de la densité des utilisateurs, et deuxièmement des situations entièrement dynamiques sans infrastructure ou support externe, montrant comment les mécanismes contextuels peuvent fournir des performances presque optimales. Toutes ces contributions et ces analyses sont supportées et validées par des modèles de simulation et des expériences qui montrent l’importance et l’exactitude de nos propositions dans l’optimisation de la performance et de la fiabilité dans le cadre de la découverte directe
Research in communication networks aims to improve the capabilities and performance of network technologies, and to satisfy the ever increasing demand for instant information access and exchange. For example, work on Fifth Generation (5G) Wireless Systems aims to increase data rates and spectral efficiency while lowering latency and energy consumption. Within this context, proximity-based networking is being considered in order to improve the data sharing between nearby devices, regardless of the availability of additional infrastructure. An integral component of these solutions is the ability to quickly detect (or discover) other systems in the vicinity. While system and service discovery has been a concept used in networks for some time, its adoption by wireless networks has increased the importance and relevance of this type of mechanisms. Therefore, the goal of this thesis is to optimize the performance of the discovery process by using context-aware mechanisms. First, we start by an introductory description of the challenges faced by network users and how current solutions (i.e. Long Term Evolution (LTE)) are unable to cover their needs. Second, we present the architecture we will use to evaluate our proposals, namely the device-to-device (D2D) architecture defined by the Third-Generation Partnership Program (3GPP) for use in LTE networks, with an emphasis on the description of the discovery process as defined in the standard specifications. Then, we present an analytical study, along with an implementation model to test and validate the performance of direct discovery. Building upon that analysis, we propose an adaptive transmission algorithm that optimizes the discovery process for static topologies. This contribution is used as the foundation for extended and enhanced algorithms targeting scenarios where the availability of historic data allows for predicting user density fluctuations, and fully dynamic situations without external infrastructure or support, showing how context-aware mechanisms can provide almost optimal performance. All these contributions and analysis are supported and validated by simulation models and experiments that showcase the importance and correctness of our proposals in the optimization of the performance and reliability in D2D direct discovery
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography