Thèses sur le sujet « Web of document »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Web of document.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Web of document ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Tandon, Seema Amit. « Web Texturizer : Exploring intra web document dependencies ». CSUSB ScholarWorks, 2004. https://scholarworks.lib.csusb.edu/etd-project/2539.

Texte intégral
Résumé :
The goal of this project is to create a customized web browser to facilitate the skimming of documents by offsetting the document with relevant information. This project added techniques of learning information retrieval to automate the web browsing experience to the web texturizer. The script runs on the web texturizer website; and it allows users to quickly navigate through the web page.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Martins, Bruno. « Inter-Document Similarity in Web Searches ». Master's thesis, Department of Informatics, University of Lisbon, 2004. http://hdl.handle.net/10451/14045.

Texte intégral
Résumé :
Os serviços de pesquisa existentes actualmente na Web não se adequam a necessidades de informação vagas ou difíceis de expressar através de palavras chave. Esta dissertação investiga a possibilidade de usar técnicas de recuperação de informação baseadas na similaridade inter-documentos, medida através dos conteúdos textuais ou das ligações entre os mesmos. Ao contrário de aproximações de recuperação de informação tradicionais, as quais fazem o mapeamento entre documentos e palavras chave produzindo listas ordenadas de resultados, as técnicas baseadas na similaridade inter-documentos oferecem um melhor suporte para a visualização dos resultados, além de métodos alternativos de expressar necessidades de informação. Estendeu-se um motor de pesquisa, vocacionado para a Web portuguesa, com dois algoritmos que usam a similaridade inter-documentos: agrupamento automático de resultados e pesquisa de páginas relacionadas. O sistema foi avaliado com base num questionário a utilizadores, o qual mostrou que ambos os algoritmos são bem aceites
Styles APA, Harvard, Vancouver, ISO, etc.
3

Arocena, Gustavo O. « WebOQL, exploiting document structure in Web queries ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp04/mq29235.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Tang, Bo. « WEBDOC : AN AUTOMATED WEB DOCUMENT INDEXING SYSTEM ». MSSTATE, 2002. http://sun.library.msstate.edu/ETD-db/theses/available/etd-11052002-213723/.

Texte intégral
Résumé :
This thesis describes WebDoc, an automated system that classifies Web documents according to the Library of Congress classification system. This work is an extension of an early version of the system that successfully generated indexes for journal articles. The unique features of Web documents, as well as how they will affect the design of a classification system, are discussed. We argue that full-text analysis of Web documents is inevitable, and contextual information must be used to assist the classification. The architecture of the WebDoc system is presented. We performed experiments on it with and without the assistance of contextual information. The results show that contextual information improved the system?s performance significantly.
Styles APA, Harvard, Vancouver, ISO, etc.
5

伍頌斌 et Chung-pun Ng. « Document distribution algorithms for distributed web servers ». Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2002. http://hub.hku.hk/bib/B31227703.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lecarpentier, Jean-Marc. « Sydonie : modèle de document et ingénierie du Web ». Phd thesis, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-01070899.

Texte intégral
Résumé :
Cette thèse de doctorat est articulée autour des ré flexions sur les évolutions du web et de l'approche des documents numériques. Elle se concrétise dans la mise au point d'un framework reprenant nos propositions de modèle de document, d'interactions et d'ingénierie du web. Nous appelons ce framework Sydonie pour SYstème de gestion de DOcuments Numériques pour l'Internet et l'édition. Il est distribué en logiciel libre. Nous proposons un modèle de document inspiré des spécifications fonctionnelles des notices bibliographiques, consignées dans le rapport sur les FRBR (Functional Requirements for Bibliographic Records). Notre modèle propose de regrouper, sous la forme d'un arbre, les différentes versions linguistiques et divers formats de fichier d'un même document. Ce modèle règle élégamment la sélection de la vue du document la plus appropriée à un utilisateur grâce à la négociation de contenu. Pour un document composite, il permet, de plus, d'inclure les composants sous la forme la plus appropriée. Notre réflexion sur les processus mis en oeuvre pour le développement d'applications web, complétée par les études réalisées dans le domaine de l'ingénierie du web, nous permettent de proposer, au sein du framework Sydonie, une architecture logicielle qui apporte des solutions souples et extensibles pour le développement d'applications web. Enfin, nous avons étudié les mécanismes à proposer pour rendre la gestion des métadonnées plus accessible aux développeurs web. Nous utilisons le modèle de document sous forme d'arbre pour proposer un modèle de gestion des métadonnées au sein des applications web.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Lecarpentier, Jean-Marc. « Sydonie : architecture de document et ingénierie du WEB ». Caen, 2011. http://www.theses.fr/2011CAEN2044.

Texte intégral
Résumé :
Cette thèse de doctorat est articulée autour des réflexions sur les évolutions du web et de l’approche des documents numériques. Elle se concrétise dans la mise au point d’un framework reprenant nos propositions de modèle de document, d’interactions et d’ingénierie du web. Nous appelons ce framework Sydonie pour SYstème de gestion de DOcuments Numériques pour l’Internet et l’Édition. Il est distribué en logiciel libre. Nous proposons un modèle de document inspiré des spécifications fonctionnelles des notices bibliographiques, consignées dans le rapport sur les FRBR (Functional Requirements for Bibliographic Records). Notre modèle propose de regrouper, sous la forme d'un arbre, les différentes versions linguistiques et divers formats de fichier d'un même document. Ce modèle règle élégamment la sélection de la vue du document la plus appropriée à un utilisateur grâce à la négociation de contenu. Pour un document composite, il permet , de plus, d'inclure les composants sous la forme la plus appropriée. Notre réflexion sur les processus mis en œuvre pour le développement d'applications web, complétée par les études réalisées dans le domaine de l'ingénierie du web, nous permettent de proposer, au sein du framework Sydonie, une architecture logicielle qui apporte des solutions souples et extensibles pour le développement d'applications web. Enfin, nous avons étudié les mécanismes à proposer pour rendre la gestion des métadonnées plus accessible aux développeurs web. Nous utilisons le modèle de document sous forme d'arbre pour proposer un modèle de gestion des métadonnées au sein des applications web
The Web has evolved, in the past few years, from a document centered approach, to become a web of applications. In this regard, multilingual composite documents management has become a focus point for Content Management Systems (CMS). This thesis offers a new approach, inspired by the Functional Requirements for Bibliographic Records report (FRBR). We propose tree-based model to describe relations between a digital document's various versions, translations and formats. The proposed approach allows composite documents to be rendered according to a user's preferences, using content negotiation and relationships between documents at the highest level of the tree. We created a web development framework called Sydonie (SYstème de gestion de DOcuments Numériques pour l’Internet et l’Édition), a research and industrial project. The proposed model has been implemented and validated within the Sydonie framework. Using both industry and academic work in the field of web engineering, Sydonie offers new ways to develop web applications. Finally, we propose a model for web aplications to interact with documents' metadata. The architecture we propose helps web developpers to implement metadata management in web applications more easily
Styles APA, Harvard, Vancouver, ISO, etc.
8

Cloran, Russell Andrew. « Trust on the semantic web ». Thesis, Rhodes University, 2006. http://eprints.ru.ac.za/852/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Dongo, Escalante Irvin Franco Benito. « Anonymisation de documents RDF ». Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3045/document.

Texte intégral
Résumé :
Avec l'avancée du Web Sémantique et des initiatives Open Linked Data, une grande quantité de documents RDF sont disponibles sur Internet. L'objectif est de rendre ces données lisibles pour les humains et les machines, en adoptant des formats spéciaux et en les connectant à l'aide des IRIs (International Resource Identifier), qui sont des abstractions de ressources réelles du monde. L’augmentation du nombre de données publiées et partagées augmente également le nombre d’informations sensibles diffusées. En conséquence, la confidentialité des entités d'intérêts (personnes, entreprises, etc.) est un véritable défi, nécessitant des techniques spéciales pour assurer la confidentialité et la sécurité adéquate des données disponibles dans un environnement où chaque utilisateur a accès à l'information sans aucune restriction (Web).Ensuite, trois aspects principaux sont considérés pour assurer la protection de l'entité: (i) Préserver la confidentialité, en identifiant les données qui peuvent compromettre la confidentialité des entités (par exemple, les identifiants, les quasi-identifiants); (ii) Identifier l'utilité des données publiques pour diverses applications (par exemple, statistiques, tests, recherche); et (iii) Les connaissances antérieures du modèle qui peuvent être utilisées par les pirates informatiques (par exemple, le nombre de relations, une relation spécifique, l'information d'un nœud).L'anonymisation est une technique de protection de la confidentialité qui a été appliquée avec succès dans les bases de données et les graphes. Cependant, les études sur l'anonymisation dans le contexte des documents RDF sont très limitées. Ces études sont les travaux initiaux de protection des individus sur des documents RDF, puisqu'ils montrent les approches pratiques d'anonymisation pour des scénarios simples comme l'utilisation d'opérations de généralisation et d'opérations de suppression basées sur des hiérarchies. Cependant, pour des scénarios complexes, où une diversité de données est présentée, les approches d'anonymisations existantes n'assurent pas une confidentialité suffisante.Ainsi, dans ce contexte, nous proposons une approche d'anonymisation, qui analyse les voisins en fonction des connaissances antérieures, centrée sur la confidentialité des entités représentées comme des nœuds dans les documents RDF. Notre approche de l'anonymisation est capable de fournir une meilleure confidentialité, car elle prend en compte la condition de la diversité de l'environnement ainsi que les voisins (nœuds et arêtes) des entités d'intérêts. En outre, un processus d'anonymisation automatique est assuré par l'utilisation d'opérations d'anonymisations associées aux types de données
With the advance of the Semantic Web and the Open Linked Data initiatives, a huge quantity of RDF data is available on Internet. The goal is to make this data readable for humans and machines, adopting special formats and connecting them by using International Resource Identifiers (IRIs), which are abstractions of real resources of the world. As more data is published and shared, sensitive information is also provided. In consequence, the privacy of entities of interest (e.g., people, companies) is a real challenge, requiring special techniques to ensure privacy and adequate security over data available in an environment in which every user has access to the information without any restriction (Web). Then, three main aspects are considered to ensure entity protection: (i) Preserve privacy, by identifying and treating the data that can compromise the privacy of the entities (e.g., identifiers, quasi-identifiers); (ii) Identify utility of the public data for diverse applications (e.g., statistics, testing, research); and (iii) Model background knowledge that can be used for adversaries (e.g., number of relationships, a specific relationship, information of a node). Anonymization is one technique for privacy protection that has been successfully applied in practice for databases and graph structures. However, studies about anonymization in the context of RDF data, are really limited. These studies are initial works for protecting individuals on RDF data, since they show a practical anonymization approach for simple scenarios as the use of generalization and suppression operations based on hierarchies. However, for complex scenarios, where a diversity of data is presented, the existing anonymization approaches does not ensure an enough privacy. Thus, in this context, we propose an anonymization framework, which analyzes the neighbors according to the background knowledge, focused on the privacy of entities represented as nodes in the RDF data. Our anonymization approach is able to provide better privacy, since it takes into account the l-diversity condition as well as the neighbors (nodes and edges) of entities of interest. Also, an automatic anonymization process is provided by the use of anonymization operations associated to the datatypes
Styles APA, Harvard, Vancouver, ISO, etc.
10

Stankovic, Milan. « Convergence entre Web Social et Web Sémantique. Application à l'innovation à l'aide du Web ». Thesis, Paris 4, 2012. http://www.theses.fr/2012PA040247/document.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le cadre de travaux relatifs au Web Social Sémantique, dans la perspective de la complémentarité et de la coévolution de deux aspects du Web, l’aspect social et sémantique. Le développement du Web au cours de ces dernières années a fait émerger un énorme graphe de données structurées, sémantiques résultant en partie de l’activité des utilisateurs, le LOD. Nous nous intéressons à l’utilisation de ce graphe afin de faciliter l’accès à l’information présente sur le Web, et ce de manière utile, informative et enrichissante pour l’utilisateur. Cette problématique est notamment étudiée dans les scénarios de l’innovation sur le Web – pratiques visant à utiliser des technologies du Web pour contribuer à l’émergence de l’innovation. Une spécificité de ce contexte, assez peu abordé dans la littérature existante, est sans doute le besoin d’inciter les découvertes inattendues et fortuites. Au delà de la simple pertinence sollicitée dans toute situation de recherche et de recommandation sur le Web, le contexte d’innovation impose une certaine ouverture d’esprit pour permettre à l’utilisateur d’accéder aux informations inattendues mais néanmoins pertinentes, et permet par la même occasion de s’inspirer et de transposer des idées d’un domaine à l’autre. Les travaux présentés dans cette thèse ont donc pour objectif d’aider, de manière directe ou indirecte, les acteurs de l’innovation en ligne (e.g., les entreprises qui cherchent à innover, les experts et les porteurs d’idées) de faire des découvertes. Cet objectif ce décline particulièrement par les travaux de construction d’un système de recherche d’experts, un système de recommandation de mots-clés pertinents pour un problème et un système de recommandation de collaborateurs pour aider à un expert d’affronter des problèmes pluridisciplinaires
This thesis builds upon the work on the Social Semantic Web, a research perspective on the complementarity and coevolution of two aspects of the Web, the social and semantic one. Web development in recent years has given rise to a huge graph of semantically structured data, partly resulting from user activity. We are particularly interested in the use of this graph in order to facilitate access to information found on the Web, in a useful, informative manner. This problem is particularly studied in scenarios related to innovation on the Web - practices to use Web technologies to contribute to the emergence of innovation. A notable specificity of this context, so far little discussed in literature, is the need to encourage serendipity and discovery. Beyond the simple relevance sought in any search and recommendation situation on the Web, the context of innovation requires a certain openness to allow the user to access information relevant yet unexpected, and should also open opportunities to learn and translate ideas from one domain to another.The work presented in this thesis therefore aims to assist, directly or indirectly, the innovators online (eg, companies seeking to innovate, experts and carriers of ideas) to make discoveries. We address each of these challenges in different parts of the thesis. This vision is principally implemented through the construction of an expert search system, Hy.SemEx, a system for keyword recommendation allowing to discover unknown relevant keywords, HyProximity, and an approach for recommending collaborators to experts in order to help them face multidisciplinary problems
Styles APA, Harvard, Vancouver, ISO, etc.
11

Elza, Dethe. « Browser evolution document access on the World Wide Web ». Ohio : Ohio University, 1998. http://www.ohiolink.edu/etd/view.cgi?ohiou1176833339.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Immaneni, Trivikram. « A HYBRID APPROACH TO RETRIEVING WEB DOCUMENTS AND SEMANTIC WEB DATA ». Wright State University / OhioLINK, 2008. http://rave.ohiolink.edu/etdc/view?acc_num=wright1199923822.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Huang, Yuzhou. « Duplicate detection in XML Web data / ». View abstract or full-text, 2009. http://library.ust.hk/cgi/db/thesis.pl?CSED%202009%20HUANG.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
14

Faessel, Nicolas. « Indexation et interrogation de pages web décomposées en blocs visuels ». Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30014/document.

Texte intégral
Résumé :
Cette thèse porte sur l'indexation et l'interrogation de pages Web. Dans ce cadre, nous proposons un nouveau modèle : BlockWeb, qui s'appuie sur une décomposition de pages Web en une hiérarchie de blocs visuels. Ce modèle prend en compte, l'importance visuelle de chaque bloc et la perméabilité des blocs au contenu de leurs blocs voisins dans la page. Les avantages de cette décomposition sont multiples en terme d'indexation et d'interrogation. Elle permet notamment d'effectuer une interrogation à une granularité plus fine que la page : les blocs les plus similaires à une requête peuvent être renvoyés à la place de la page complète. Une page est représentée sous forme d'un graphe acyclique orienté dont chaque nœud est associé à un bloc et étiqueté par l'importance de ce bloc et chaque arc est étiqueté la perméabilité du bloc cible au bloc source. Afin de construire ce graphe à partir de la représentation en arbre de blocs d'une page, nous proposons un nouveau langage : XIML (acronyme de XML Indexing Management Language), qui est un langage de règles à la façon de XSLT. Nous avons expérimenté notre modèle sur deux applications distinctes : la recherche du meilleur point d'entrée sur un corpus d'articles de journaux électroniques et l'indexation et la recherche d'images sur un corpus de la campagne d'ImagEval 2006. Nous en présentons les résultats
This thesis is about indexing and querying Web pages. We propose a new model called BlockWeb, based on the decomposition of Web pages into a hierarchy of visual blocks. This model takes in account the visual importance of each block as well as the permeability of block's content to their neighbor blocks on the page. Splitting up a page into blocks has several advantages in terms of indexing and querying. It allows to query the system with a finer granularity than the whole page: the most similar blocks to the query can be returned instead of the whole page. A page is modeled as a directed acyclic graph, the IP graph, where each node is associated with a block and is labeled by the coefficient of importance of this block and each arc is labeled by the coefficient of permeability of the target node content to the source node content. In order to build this graph from the bloc tree representation of a page, we propose a new language : XIML (acronym for XML Indexing Management Language), a rule based language like XSLT. The model has been assessed on two distinct dataset: finding the best entry point in a dataset of electronic newspaper articles, and images indexing and querying in a dataset drawn from web pages of the ImagEval 2006 campaign. We present the results of these experiments
Styles APA, Harvard, Vancouver, ISO, etc.
15

Vidal, Colin. « Programmation web réactive ». Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4049/document.

Texte intégral
Résumé :
Le web est une plate-forme universelle pour développer des applications riches en interactions avec les utilisateurs et des services distants. Ces interactions sont implémentées sous forme d’évènements asynchrones pouvant survenir à n’importe quel instant de l’exécution de l’application. JavaScript, le langage du web, gère les évènements asynchrones de façon peu abstraite, ce qui rend l’écriture, la vérification et la maintenance d’applications interactives difficile. La contribution de cette thèse est l’élaboration et l’implémentation du langage Hiphop.js qui dote JavaScript d’abstractions de plus haut niveau pour gérer les évènements asynchrones. Hiphop.js est une implémentation JavaScript de constructions temporelles du langage réactif synchrone Esterel. Grâce à ces constructions, le flot de contrôle d’une application Hiphop.js est explicite. Il est donc possible de savoir précisément quand et sous quelles conditions un évènement est traité par simple lecture du code source de l’application. Ceci facilite la vérification et la maintenance de l’application. L’intégration profonde du langage Hiphop.js avec l’environnement dynamique du web est une part importante des travaux entrepris dans cette thèse. Les programmes sont construits et compilés pendant l’exécution de l’application JavaScript ce qui permet d’adapter automatiquement le traitement des évènements asynchrones en fonction des changements de l’environnement au cours de l’exécution (par exemple, la connexion ou déconnexion de participants pendant une visioconférence)
The web is an universal platform used to develop applications interacting with users and remote services. These interactions are implemented as asynchronous events that can be fired anytime. JavaScript, the mainstream language of the web, handles asynchronous events using low-level abstractions that makes it difficult to write, verify, and maintain interactive applications. We have addressed this problem by designing and implementing a new domain specific language called Hiphop.js. It offers an alternative to JavaScript event handling mechanism by reusing temporal constructions coming from the synchronous programming language Esterel. These constructions make the control flow of the program explicit and deterministic. Hiphop.js is embedded in JavaScript and suits the traditional dynamic programming style of the Web. It is tighly coupled to JavaScript with which it can exchange values and access any data structures. It can also support dynamic modifications of existing programs needed to support on-demand download on the Web. It can run on both end of Web applications, namely on servers and on clients. In this thesis, we present Hiphop.js, its design and implementation. We overview its programming environment and we present the prototypical web applications we have implemented to validate the approach
Styles APA, Harvard, Vancouver, ISO, etc.
16

Mereuta, Alina. « Smart web accessibility platform : dichromacy compensation and web page structure improvement ». Thesis, Tours, 2014. http://www.theses.fr/2014TOUR4032/document.

Texte intégral
Résumé :
Dans ces travaux, nous nous concentrons sur l’amélioration de l’accessibilité web pourdes utilisateurs handicapés visuels à travers d’outils s’intègrant dans la plateforme SmartWeb Accessibility Platform (SWAP). Après une synthèse sur l’accessibilité, un panoramade SWAP est présenté. Notre première contribution concerne la compensation de la pertede contraste textuel dans les pages web pour les daltoniens tout en maintenant les intentionsde l’auteur retranscrites par les couleurs. Ce problème est modélisé sous la forme d’unproblème de minimisation d’une fonction numérique dépendante des couleurs initiales, desrelations entre les couleurs de la page et des couleurs modifiées. L’intérêt et l’efficacité detrois méthodes d’optimisation (mass-spring system, CMA-ES, API) ont été évaluées surdeux jeux de données (réel, artificiel). Notre deuxième contribution cherche à améliorer lastructure de pages web pour des utilisateurs de lecteurs d’écran afin de compenser la perted’information due à la linéarisation du contenu. Grâce à l’utilisation d’heuristiques et detechnique d’apprentissage, les zones caractéristiques de la page sont identifiées. La pageest complétée en utilisant des liens supplémentaires et les marqueurs ARIA afin de permettreune meilleure identification des zones par les lecteurs d’écran. Nos expérimentationsmontrent l’efficacité de notre proposition
This thesis works are focused on enhancing web accessibility for users with visual disabilities using tools integrated within the SmartWeb Accessibility Platform (SWAP). After a synthesis on accessibility, SWAP is presented. Our first contribution consists in reducing the contrast loss for textual information in web pages for dichromat users while maintaining the author’s intentions conveyed by colors. The contrast compensation problem is reduced at minimizing a fitness function which depends on the original colors and the relationships between them. The interest and efficiency of three methods (mass-spring system, CMA-ES, API) are assessed on two datasets (real and artificial). The second contribution focuses on enhancing web page structure for screen reader users in order to overcome the effect of contents’linearization. Using heuristics and machine learning techniques, the main zones of the page are identified. The page structure can be enhanced using ARIA statements and access links to improve zone identification by screen readers
Styles APA, Harvard, Vancouver, ISO, etc.
17

Mull, Randall Franklin. « Teaching web design at the higher education level ». Morgantown, W. Va. : [West Virginia University Libraries], 2001. http://etd.wvu.edu/templates/showETD.cfm?recnum=1954.

Texte intégral
Résumé :
Thesis (M.S.)--West Virginia University, 2001.
Title from document title page. Document formatted into pages; contains iii, 47 p. Vita. Includes abstract. Includes bibliographical references (p. 36-37).
Styles APA, Harvard, Vancouver, ISO, etc.
18

Do, Tuan Anh. « A quality-centered approach for web application engineering ». Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1201/document.

Texte intégral
Résumé :
Les développeurs d'applications Web ne sont pas tous des experts. Même s'ils utilisent des méthodes telles que UWE (UML web engineering) et les outils CASE, ils ne sont pas toujours capables de prendre de bonnes décisions concernant le contenu de l'application web, le schéma de navigation et / ou la présentation des informations. La littérature leur fournit de nombreuses lignes directrices (guidelines) pour ces tâches. Cependant, ces connaissances sont disséminées dans de nombreuses sources et non structurées. Dans cette dissertation, nous capitalisons sur les connaissances offertes par ces lignes directrices. Notre contribution est triple: (i) nous proposons un méta-modèle permettant une représentation riche de ces lignes directrices, (ii) nous proposons une grammaire permettant la description des lignes directrices existantes, (iii) sur la base de cette grammaire, nous développons un outil de gestion des lignes directrices . Nous enrichissons la méthode UWE avec cette base de connaissances menant à une approche basée sur la qualité. Ainsi, notre outil enrichit les prototypes existants d'ingénierie logicielle assistée par ordinateur basés sur UWE avec des conseils ad hoc
Web application developers are not all experts. Even if they use methods such as UWE (UML web engineering) and CASE tools, they are not always able to make good decisions regarding the content of the web application, the navigation schema, and/or the presentation of information. Literature provides them with many guidelines for these tasks. However this knowledge is disseminated in many sources and not structured. In this dissertation, we perform a knowledge capitalization of all these guidelines. The contribution is threefold: (i) we propose a meta-model allowing a rich representation of these guidelines, (ii) we propose a grammar enabling the description of existing guidelines, (iii) based on this grammar, we developed a guideline management tool. We enrich the UWE method with this knowledge base leading to a quality based approach. Thus, our tool enriches existing UWE-based Computer Aided Software Engineering prototypes with ad hoc guidance
Styles APA, Harvard, Vancouver, ISO, etc.
19

Ghenname, Mérième. « Le web social et le web sémantique pour la recommandation de ressources pédagogiques ». Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4015/document.

Texte intégral
Résumé :
Ce travail de recherche est conjointement effectué dans le cadre d’une cotutelle entre deux universités : en France l’Université Jean Monnet de Saint-Etienne, laboratoire Hubert Curien sous la supervision de Mme Frédérique Laforest, M. Christophe Gravier et M. Julien Subercaze, et au Maroc l’Université Mohamed V de Rabat, équipe LeRMA sous la supervision de Mme Rachida Ajhoun et Mme Mounia Abik. Les connaissances et les apprentissages sont des préoccupations majeures dans la société d’aujourd’hui. Les technologies de l’apprentissage humain visent à promouvoir, stimuler, soutenir et valider le processus d’apprentissage. Notre approche explore les opportunités soulevées en faisant coopérer le Web Social et le Web sémantique pour le e-learning. Plus précisément, nous travaillons sur l’enrichissement des profils des apprenants en fonction de leurs activités sur le Web Social. Le Web social peut être une source d’information très importante à explorer, car il implique les utilisateurs dans le monde de l’information et leur donne la possibilité de participer à la construction et à la diffusion de connaissances. Nous nous focalisons sur le suivi des différents types de contributions, dans les activités de collaboration spontanée des apprenants sur les réseaux sociaux. Le profil de l’apprenant est non seulement basé sur la connaissance extraite de ses activités sur le système de e-learning, mais aussi de ses nombreuses activités sur les réseaux sociaux. En particulier, nous proposons une méthodologie pour exploiter les hashtags contenus dans les écrits des utilisateurs pour la génération automatique des intérêts des apprenants dans le but d’enrichir leurs profils. Cependant les hashtags nécessitent un certain traitement avant d’être source de connaissances sur les intérêts des utilisateurs. Nous avons défini une méthode pour identifier la sémantique de hashtags et les relations sémantiques entre les significations des différents hashtags. Par ailleurs, nous avons défini le concept de Folksionary, comme un dictionnaire de hashtags qui pour chaque hashtag regroupe ses définitions en unités de sens. Les hashtags enrichis en sémantique sont donc utilisés pour nourrir le profil de l’apprenant de manière à personnaliser les recommandations sur le matériel d’apprentissage. L’objectif est de construire une représentation sémantique des activités et des intérêts des apprenants sur les réseaux sociaux afin d’enrichir leurs profils. Nous présentons également notre approche générale de recommandation multidimensionnelle dans un environnement d’e-learning. Nous avons conçu une approche fondée sur trois types de filtrage : le filtrage personnalisé à base du profil de l’apprenant, le filtrage social à partir des activités de l’apprenant sur les réseaux sociaux, et le filtrage local à partir des statistiques d’interaction de l’apprenant avec le système. Notre implémentation s’est focalisée sur la recommandation personnalisée
This work has been jointly supervised by U. Jean Monnet Saint Etienne, in the Hubert Curien Lab (Frederique Laforest, Christophe Gravier, Julien Subercaze) and U. Mohamed V Rabat, LeRMA ENSIAS (Rachida Ahjoun, Mounia Abik). Knowledge, education and learning are major concerns in today’s society. The technologies for human learning aim to promote, stimulate, support and validate the learning process. Our approach explores the opportunities raised by mixing the Social Web and the Semantic Web technologies for e-learning. More precisely, we work on discovering learners profiles from their activities on the social web. The Social Web can be a source of information, as it involves users in the information world and gives them the ability to participate in the construction and dissemination of knowledge. We focused our attention on tracking the different types of contributions, activities and conversations in learners spontaneous collaborative activities on social networks. The learner profile is not only based on the knowledge extracted from his/her activities on the e-learning system, but also from his/her many activities on social networks. We propose a methodology for exploiting hashtags contained in users’ writings for the automatic generation of learner’s semantic profiles. Hashtags require some processing before being source of knowledge on the user interests. We have defined a method to identify semantics of hashtags and semantic relationships between the meanings of different hashtags. By the way, we have defined the concept of Folksionary, as a hashtags dictionary that for each hashtag clusters its definitions into meanings. Semantized hashtags are thus used to feed the learner’s profile so as to personalize recommendations on learning material. The goal is to build a semantic representation of the activities and interests of learners on social networks in order to enrich their profiles. We also discuss our recommendation approach based on three types of filtering (personalized, social, and statistical interactions with the system). We focus on personalized recommendation of pedagogical resources to the learner according to his/her expectations and profile
Styles APA, Harvard, Vancouver, ISO, etc.
20

Tolomei, Gabriele <1980&gt. « Enhancing web search user experience : from document retrieval to task recommendation ». Doctoral thesis, Università Ca' Foscari Venezia, 2011. http://hdl.handle.net/10579/1231.

Texte intégral
Résumé :
Il World Wide Web è la più grande sorgente dati mai realizzata dall’uomo. Ciò ha fatto sì che il Web divenisse sempre più il “luogo” di riferimento per accedere a qualsiasi tipo di informazione, attraverso l’uso dei motori di ricerca. Infatti, gli utenti tendono a rivolgersi ai motori di ricerca non solo per consultare pagine Web ma per eseguire vere e proprie attività (ad es., per organizzare vacanze, ottenere un visto, organizzare una festa, etc.). In questa tesi di dottorato, si descrivono e affrontano due sfide fondamentali tese a migliorare l’esperienza di ricerca sul Web offerta dagli attuali motori di ricerca, ovvero la scoperta e la raccomandazione di cosiddetti “Web tasks”. Entrambe queste sfide si basano su una reale comprensione dei comportamenti di ricerca degli utenti, che può essere raggiunta mediante l’applicazione di tecniche di query log mining. I processi di ricerca degli utenti sono analizzati ad un più alto livello di astrazione, ovvero da una prospettiva “task-by-task” anziché “query-by-query”. In questo modo è possible realizzare un modello di attività di ricerca che fornisca adeguato supporto alla “vita sul Web” degli utenti.
The World Wide Web is the biggest and most heterogeneous database that humans have ever built, making it the place of choice where people search for any sort of information through Web search engines. Indeed, users are increasingly asking Web search engines for performing their daily tasks (e.g., "planning holidays", "obtaining a visa", "organizing a birthday party", etc.), instead of simply looking for Web pages. In this Ph.D. dissertation, we sketch and address two core research challenges that we claim next-generation Web search engines should tackle for enhancing user search experience, i.e., Web task discovery and Web task recommendation. Both these challenges rely on the actual understanding of user search behaviors, which can be achieved by mining knowledge from query logs. Search processes of many users are analyzed at a higher level of abstraction, namely from a "task-by-task" instead of a "query-by-query" perspective, thereby producing a model of user search tasks, which in turn can be used to support people during their daily "Web lives".
Styles APA, Harvard, Vancouver, ISO, etc.
21

Yang, Jingtao. « Document flow model : a formal notation for modelling asynchronous web services ». Thesis, University of Southampton, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.427364.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Roussinov, Dmitri G., et Hsinchun Chen. « Document clustering for electronic meetings : an experimental comparison of two techniques ». Elsevier, 1999. http://hdl.handle.net/10150/105091.

Texte intégral
Résumé :
Artificial Intelligence Lab, Department of MIS, University of Arizona
In this article, we report our implementation and comparison of two text clustering techniques. One is based on Wardâ s clustering and the other on Kohonenâ s Self-organizing Maps. We have evaluated how closely clusters produced by a computer resemble those created by human experts. We have also measured the time that it takes for an expert to â â clean upâ â the automatically produced clusters. The technique based on Wardâ s clustering was found to be more precise. Both techniques have worked equally well in detecting associations between text documents. We used text messages obtained from group brainstorming meetings.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Harmon, Trev R. « On-Line Electronic Document Collaboration and Annotation ». Diss., CLICK HERE for online access, 2006. http://contentdm.lib.byu.edu/ETD/image/etd1589.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
24

Han, Wei. « Wrapper application generation for semantic web ». Diss., Georgia Institute of Technology, 2003. http://hdl.handle.net/1853/5407.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Oita, Marilena. « Inférer des objets sémantiques du Web structuré ». Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0060/document.

Texte intégral
Résumé :
Cette thèse se concentre sur l'extraction et l'analyse des objets du Web, selon différents points de vue: temporel, structurel, sémantique. Nous commençons par une étude qui porte sur la compréhension des différentes stratégies et meilleures pratiques pour inférer les aspects temporels des pages Web. Pour cette finalité, on présente plus en détail une approche qui utilise des statistiques sur les flux du Web. Nous continuons par la présentation de deux techniques basées sur des mots-clés pour l'extraction d'objets, dans le cadre des pages Web générées dynamiquement par des systèmes de gestion du contenu. Les objets que nous étudions dans ce contexte correspondent à des articles du Web. Les mots-clés, acquis automatiquement, guident le processus d'identification d'objets, soit au niveau d'une seule page Web (SIGFEED) soit sur plusieurs pages différentes qui partagent le même modèle (FOREST). Nous décrivons également un cadre général qui vise à découvrir le modèle sémantique des objets du Web caché. Dans ce contexte, l'objets sont représentés par des enregistrements de données. Ce cadre utilise FOREST pour l'identification des enregistrements dans la page et se base sur l'alignement des instances extraites et des objets mêmes, par rapport à des similitudes de type représentées avec rdf:type dans un graphe étiqueté. Ce graphe est ensuite aligné avec une ontologie générique comme YAGO, pour la découverte des types et leur relations par rapport à l'entité de base qui est résumé par le formulaire Web
This thesis focuses on the extraction and analysis of Web data objects, investigated from different points of view: temporal, structural, semantic. We first survey different strategies and best practices for deriving temporal aspects of Web pages, together with a more in-depth study on Web feeds for this particular purpose, and other statistics. Next, in the context of dynamically-generated Web pages by content management systems, we present two keyword-based techniques that perform article extraction from such pages. Keywords, automatically acquired, guide the process of object identification, either at the level of a single Web page (SIGFEED), or across different pages sharing the same template (FOREST). We finally present, in the context of the deep Web, a generic framework that aims at discovering the semantic model of a Web object (here, data record) by, first, using FOREST for the extraction of objects, and second, representing the implicit rdf:type similarities between the object attributes and the entity of the form as relationships that, together with the instances extracted from the objects, form a labeled graph. This graph is further aligned to an ontology like YAGO for the discovery of the unknown types and relations
Styles APA, Harvard, Vancouver, ISO, etc.
26

Sanoja, Vargas Andrés. « Segmentation de pages web, évaluation et applications ». Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066004/document.

Texte intégral
Résumé :
Les pages web sont devenues plus complexes que jamais, principalement parce qu'elles sont générées par des systèmes de gestion de contenu (CMS). Il est donc difficile de les analyser, c'est-à-dire d'identifier et classifier automatiquement les différents éléments qui les composent. La segmentation de pages web est une des solutions à ce problème. Elle consiste à décomposer une page web en segments, visuellement et sémantiquement cohérents, appelés blocs. La qualité d'une segmentation est mesurée par sa correction et sa généricité, c'est-à-dire sa capacité à traiter des pages web de différents types. Notre recherche se concentre sur l'amélioration de la segmentation et sur une mesure fiable et équitable de la qualité des segmenteurs. Nous proposons un modèle pour la segmentation ainsi que notre segmenteur Block-o-Matic (BoM). Nous définissons un modèle d'évaluation qui prend en compte le contenu ainsi que la géométrie des blocs pour mesurer la correction d'un segmenteur par rapport à une vérité de terrain. Ce modèle est générique, il permet de tester tout algorithme de segmentation et observer ses performances sur différents types de page. Nous l'avons testé sur quatre segmenteurs et quatre types de pages. Les résultats montrent que BOM surpasse ses concurrents en général et que la performance relative d'un segmenteur dépend du type de page. Enfin, nous présentons deux applications développées au dessus de BOM. Pagelyzer compare deux versions de pages web et décide si elles sont similaires ou pas. C'est la principale contribution de notre équipe au projet européen Scape (FP7-IP). Nous avons aussi développé un outil de migration de pages HTML4 vers le nouveau format HTML5
Web pages are becoming more complex than ever, as they are generated by Content Management Systems (CMS). Thus, analyzing them, i.e. automatically identifying and classifying different elements from Web pages, such as main content, menus, among others, becomes difficult. A solution to this issue is provided by Web page segmentation which refers to the process of dividing a Web page into visually and semantically coherent segments called blocks.The quality of a Web page segmenter is measured by its correctness and its genericity, i.e. the variety of Web page types it is able to segment. Our research focuses on enhancing this quality and measuring it in a fair and accurate way. We first propose a conceptual model for segmentation, as well as Block-o-Matic (BoM), our Web page segmenter. We propose an evaluation model that takes the content as well as the geometry of blocks into account in order to measure the correctness of a segmentation algorithm according to a predefined ground truth. The quality of four state of the art algorithms is experimentally tested on four types of pages. Our evaluation framework allows testing any segmenter, i.e. measuring their quality. The results show that BoM presents the best performance among the four segmentation algorithms tested, and also that the performance of segmenters depends on the type of page to segment.We present two applications of BoM. Pagelyzer uses BoM for comparing two Web pages versions and decides if they are similar or not. It is the main contribution of our team to the European project Scape (FP7-IP). We also developed a migration tool of Web pages from HTML4 format to HTML5 format in the context of Web archives
Styles APA, Harvard, Vancouver, ISO, etc.
27

Chen, Benfeng. « Transforming Web pages to become standard-compliant through reverse engineering / ». View abstract or full-text, 2006. http://library.ust.hk/cgi/db/thesis.pl?COMP%202006%20CHEN.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Cui, Heng. « Analyse et diagnostic des performances du web du point de vue de l'utilisateur ». Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0017/document.

Texte intégral
Résumé :
Au cours des dernières années, l'intérêt porté aux performances de la navigation internet n'a cessé de croître au sein de la communauté scientifique. Afin de comprendre la perception qu'a l'utilisateur des performances de la navigation Web, au cours de cette thèse nous abordons différents problèmes liés aux performances de la navigation Internet telle qu'elle est perçue par l'utilisateur final. Cette thèse se compose de trois parties: la première partie présente notre nouvelle plateforme basée sur des mesures faites au niveau du navigateur. Nous présentons les différents paramètres que nous obtenons facilement à partir du navigateur, ainsi que des indicateurs du ressenti de l'utilisateur final. Ensuite nous utilisons des techniques de partitionnement de données afin de trouver les corrélations existantes entre performances de haut niveau et de bas niveau. Dans une seconde partie, nous présentons notre outil de diagnostic appelé “Firelog”. Nous étudions tout d'abord les différentes causes qui peuvent affecter le rendu d'une page Web. Ensuite nous décrivons en détails les différents composant de notre outil et les mesures qu'il effectue. Sur la base des paramètres mesurés, nous illustrons notre modèle pour le diagnostic des performances d'une manière automatique. Dans la dernière partie, nous proposons une nouvelle méthodologie, “Critical Path Method” (ou Méthode du Chemin Critique) pour l'analyse des performances de la navigation Web. Nous expliquons d'abord en détails les caractéristiques intrinsèques du Navigateur lors du rendu d'une page Web, puis nous présentons formellement notre méthodologie
In recent years, the interest of the research community in the performance of Web browsing has grown steadily. In order to reveal end-user perceived performance of Web browsing, in this thesis work, we address multiple issues of Web browsing performance from the perspective of the end-user. The thesis is composed by three parts: the first part introduces our initial platform which is based on browser-level measurements. We explain measurement metrics that can be easily acquired from the browser and indicators for end-user experience. Then, we use clustering techniques to correlate higher-level performance metrics with lower level metrics. In the second part, we present our diagnosis tool called FireLog. We first discuss different possible causes that can prevent a Web page to achieve fast rendering; then, we describe details of the tool's components and its measurements. Based on the measured metrics, we illustrate our model for the performance diagnosis in an automatic fashion. In the last part, we propose a new methodology named Critical Path Method for the Web performance analysis. We first explain details about Web browser's intrinsic features during page rendering and then we formalize our the methodology
Styles APA, Harvard, Vancouver, ISO, etc.
29

Matsubara, Shigeki, Tomohiro Ohno et Masashi Ito. « Text-Style Conversion of Speech Transcript into Web Document for Lecture Archive ». Fuji Technology Press, 2009. http://hdl.handle.net/2237/15083.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Lee, David Chunglin. « Pre-fetch document caching to improve World-Wide Web user response time ». Thesis, Virginia Tech, 1996. http://hdl.handle.net/10919/44951.

Texte intégral
Résumé :

The World-Wide Web, or the Web, is currently one of the most highly used network services. Because of this, improvements and new technologies are rapidly being developed and deployed. One important area of study is improving user response time through the use of caching mechanisms. Most prior work considered multiple user caches running on cache relay systems. These systems are mostly post-caching systems; they perform no "look ahead," or pre-fetch, functions. This research studies a pre-fetch caching scheme based on Web server access statistics. The scheme employs a least-recently used replacement policy and allows for multiple simultaneous document retrievals to occur. The scheme is based on a combined statistical and locality of reference model associated with the links in hypertext systems. Results show that cache hit rates are doubled over schemes that use only post-caching and are mixed for user response time improvements. The conclusion is that pre-fetch caching Web documents offers an improvement over post-caching methods and should be studied in detail for both single user and multiple user systems.


Master of Science
Styles APA, Harvard, Vancouver, ISO, etc.
31

Everts, TJ. « Using Formal Concept Analysis with a Push-based Web Document Management System ». Thesis, Honours thesis, University of Tasmania, 2004. https://eprints.utas.edu.au/116/1/EvertsT_Hons_Thesis2004.pdf.

Texte intégral
Résumé :
The significant increase in amount of information readily available on the World Wide Web (WWW) makes it difficult for users to locate the information they desire in a timely manner. Modern information gathering and retrieval methods focus on simplifying this task by enabling the user to retrieve only a small subset of information that is more relevant and manageable. However, often the majority of users will not find an immediate use for the information. Therefore, it is necessary to provide a method to store it effectively so it can be utilised as a future knowledge resource. A commonly adopted approach is to classify the retrieved information based on its content. A technique that has been found to be suitable for this purpose is Multiple Classification Ripple Down Rules (MCRDR). MCRDR constructs a classification knowledge base over time using an incremental learning process. This incremental method of acquiring classification knowledge suits the nature of Web information because it is constantly evolving and being updated. However, despite this advantage, the classification knowledge of MCRDR is not often utilised for browsing the classified information. This is because MCRDR does not directly organise the knowledge in a way that is suitable for browsing. As a result, often an alternate structure is utilised for browsing the information which is usually based on a user's abstract understanding of the information domain. This study investigated the feasibility of utilising the classification knowledge acquired through the use of MCRDR as a resource for browsing information retrieved from the WWW. A system was implemented that used the concept lattice based browsing scheme of Formal Concept Analysis (FCA) to support the browsing of documents based on MCRDR classification knowledge. The feasibility of utilising classification knowledge as a resource for browsing documents was evaluated statistically. This was achieved by comparing the concept lattice-based browsing approach to a standard one that utilises abstract knowledge of a domain as a resource for browsing the same documents.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Rocco, Daniel J. (Daniel John). « Discovering and Tracking Interesting Web Services ». Diss., Georgia Institute of Technology, 2004. http://hdl.handle.net/1853/4889.

Texte intégral
Résumé :
The World Wide Web has become the standard mechanism for information distribution and scientific collaboration on the Internet. This dissertation research explores a suite of techniques for discovering relevant dynamic sources in a specific domain of interest and for managing Web data effectively. We first explore techniques for discovery and automatic classification of dynamic Web sources. Our approach utilizes a service class model of the dynamic Web that allows the characteristics of interesting services to be specified using a service class description. To promote effective Web data management, the Page Digest Web document encoding eliminates tag redundancy and places structure, content, tags, and attributes into separate containers, each of which can be referenced in isolation or in conjunction with the other elements of the document. The Page Digest Sentinel system leverages our unique encoding to provide efficient and scalable change monitoring for arbitrary Web documents through document compartmentalization and semantic change request grouping. Finally, we present XPack, an XML document compression system that uses a containerized view of an XML document to provide both good compression and efficient querying over compressed documents. XPack's queryable XML compression format is general-purpose, does not rely on domain knowledge or particular document structural characteristics for compression, and achieves better query performance than standard query processors using text-based XML. Our research expands the capabilities of existing dynamic Web techniques, providing superior service discovery and classification services, efficient change monitoring of Web information, and compartmentalized document handling. DynaBot is the first system to combine a service class view of the Web with a modular crawling architecture to provide automated service discovery and classification. The Page Digest Web document encoding represents Web documents efficiently by separating the individual characteristics of the document. The Page Digest Sentinel change monitoring system utilizes the Page Digest document encoding for scalable change monitoring through efficient change algorithms and intelligent request grouping. Finally, XPack is the first XML compression system that delivers compression rates similar to existing techniques while supporting better query performance than standard query processors using text-based XML.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Cao, Tien Dung. « Test and Validation of Web Services ». Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14122/document.

Texte intégral
Résumé :
Nous proposons dans cette thèse les approches de test pour la composition de services web. Nous nous intéressons aux test unitaire et d’intégration d’une orchestration de services web. L’aspect de vérification d’exécution en-ligne est aussi consideré. Nous définissons une plateforme de test unitaire pour l’orchestration de services web qui compose une architecture de test, une relation de conformité et deux approches de test basés sur le modèle de machine à l’états finis étendues temporisés: l’approche offline où les activités de test comme la génération de cas de test temporisé, l’exécution de test et l’assignement de verdict sont appliquées en séquentielle tandis que ces activités sont appliquées en parallèle dans l’approche online. Pour le test d’intégration d’une orchestration, nous combinons deux approches: active et passive.Au debut, l’approche active est utilisée pour activer une nouvelle session d’orchestration par l’envoi d’un message de requête SOAP. Après, tous les messages d’entré et de sortie de l’orchestration sont collectés et analysés par l’approche passive.Pour l’aspect de vérification d’exécution en-ligne, nous nous intéressons à la vérification d’une trace qui respecte un ensemble des constraintes, noté règles, ou pas. Nous avons proposé extendre le langage Nomad en définissant des constraintes sur chaque action atomique et un ensemble de corrélation de données entre les actions pour définir des règles pour le service web. Ce langage nous permet de définir des règles avec le temps futur et passé, et d’utiliser des opérations NOT, AND, OR pour combiner quelque conditions dans le contexte de la règle. Ensuite, nous proposons un algorithme pour vérifier l’exactitude d’une séquence des messages en parallèle avec le moteur de collecte de trace
In this thesis, we propose the testing approaches for web service composition. We focus on unit, integrated testing of an orchestration of web services and also the runtime verification aspect. We defined an unit testing framework for an orchestration that is composed of a test architecture, a conformance relation and two proposed testing approaches based on Timed Extended Finite State Machine (TEFSM) model: offline which test activities as timed test case generation, test execution and verdict assignment are applied in sequential, and online which test activities are applied in parallel. For integrated testing of an orchestration, we combines of two approaches: active and passive. Firstly, active approach is used to start a new session of the orchestration by sending a SOAP request. Then all communicating messages among services are collected and analyzed by a passive approach. On the runtime verification aspect, we are interested in the correctness of an execution trace with a set of defined constraints, called rules. We have proposed to extend the Nomad language, by defining the constraints on each atomic action (fixed conditions) and a set of data correlations between the actions to define the rules for web services. This language allows us to define a rule with future and past time, and to use the operations: NOT, AND, OR to combines some conditions into a context of the rule. Afterwards, we proposed an algorithm to check correctness of a message sequence in parallel with the trace collection engine. Specifically, this algorithm verifies message by message without storing them
Styles APA, Harvard, Vancouver, ISO, etc.
34

Kolafa, Lukáš. « Generování výstupních sestav v prostředí webu ». Master's thesis, Vysoká škola ekonomická v Praze, 2010. http://www.nusl.cz/ntk/nusl-75494.

Texte intégral
Résumé :
Today it is very often necessary to print different documents from company information systems. These documents, that are designed to represent the company, contain information that is usually stored in databases. The goal of this thesis is to show the methods for the automatic conversion of data into formatted documents. My aim is to show some methods, how to automatically generate printouts and how to create templates for them in an easy way. For the purpose of this thesis, I've developed a small web application, which stands for an information system of a logistics company. The application allows creating documents with the help of templates. All documents are generated in generally common formats.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Terdjimi, Mehdi. « Adaptation Contextuelle Multi-Préoccupations Orientée Sémantique dans le Web des Objets ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1315/document.

Texte intégral
Résumé :
Le Web des Objets s'inscrit dans divers domaines d'application, tels que la domotique, les entreprises, l'industrie, la médecine, la ville, et l'agriculture. Il se présente comme une couche uniforme placée au-dessus de l'Internet des Objets, afin de surmonter l'hétérogénéité des protocoles présents dans ces réseaux. Une valeur ajoutée des applications Web des Objets est de pouvoir combiner l'accès à divers objets connectés et sources de données externes avec des techniques standards de raisonnement sémantique (RDF-S,OWL). Cela leur permet alors d'interpréter et de manipuler de ces données en tant qu'informations contextuelles. Ces informations contextuelles peuvent être exploitées par ces applications afin d'adapter leurs composants en fonction des changements dans leur environnement. L'adaptation contextuelle est un défi majeur pour le Web des Objets. En effet, les solutions d'adaptation existantes sont soit fortement couplées avec leur domaine d'application (étant donne qu'elles reposent sur des modèles de contexte spécifiques au domaine), soit proposées comme composant logiciels autonomes, difficiles à intégrer dans des architectures Web et orientées sémantique. Cela mène alors à des problèmes d'intégration, de performance et de maintenance. Dans cette thèse, nous proposons une solution d'adaptation contextuelle multi préoccupations pour les applications Web des Objets, répondant à des besoins d'utilisabilité, de flexibilité, de pertinence et de performance. Notre travail se base sur un scenario pour l'agriculture numérique et se place dans le cadre de la plateforme orientée-avatar ASAWoO. Premièrement, nous proposons un Meta modèle générique permettant de concevoir des modèles contextuels standards, interopérables et réutilisables. Deuxièmement, nous présentons un cycle de vie du contexte et un workflow d'adaptation contextuelle, permettant la sémantisation de données brutes, ainsi que la contextualisation en parallèle durant l'exécution de l'application. Ce workflow combine des données issues de sources hétérogènes, telles que l'expertise du domaine, les documentations techniques des objets, les données de capteurs et de services Web, etc. Troisièmement, nous présentons une méthode de génération de règles d'adaptations basées sur des situations contextuelles, permettant de limiter l'effort des experts et concepteurs lors de l'élaboration d'applications adaptatives. Quatrièmement, nous proposons deux optimisations pour le raisonnement contextuel : la première adapte la localisation des taches de raisonnement en fonction du contexte, la seconde améliore le processus de maintenance incrémentale d'informations contextuelles
The Web of Things (WoT) takes place in a variety of application domains (e.g. homes, enterprises, industry, healthcare, city, agriculture...). It builds a Web-based uniform layer on top of the Internet of Things (IoT) to overcome the heterogeneity of protocols present in the IoT networks. WoT applications provide added value by combining access to connected objects and external data sources, as well as standard-based reasoning (RDF-S, OWL 2) to allow for interpretation and manipulation of gathered data as contextual information. Contextual information is then exploited to allow these applications to adapt their components to changes in their environment. Yet, contextual adaptation is a major challenge for theWoT. Existing adaptation solutions are either tightly coupled with their application domains (as they rely on domain-specific context models) or offered as standalone software components that hardly fit inWeb-based and semantic architectures. This leads to integration, performance and maintainability problems. In this thesis, we propose a multi-purpose contextual adaptation solution for WoT applications that addresses usability, flexibility, relevance, and performance issues in such applications. Our work is based on a smart agriculture scenario running inside the avatar-based platformASAWoO. First,we provide a generic context meta-model to build standard, interoperable et reusable context models. Second, we present a context lifecycle and a contextual adaptation workflow that provide parallel raw data semantization and contextualization at runtime, using heterogeneous sources (expert knowledge, device documentation, sensors,Web services, etc.). Third, we present a situation-driven adaptation rule design and generation at design time that eases experts and WoT application designers’ work. Fourth, we provide two optimizations of contextual reasoning for theWeb: the first adapts the location of reasoning tasks depending on the context, and the second improves incremental maintenance of contextual information
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lowery, David S. « Utilization of Web services to improve communication of operational information ». Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2004. http://library.nps.navy.mil/uhtbin/hyperion/04Sep%5FLowery.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Zhuo, Ling, et 卓玲. « Document replication and distribution algorithms for load balancing ingeographically distributed web server systems ». Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2002. http://hub.hku.hk/bib/B31228148.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
38

Qumsiyeh, Rani Majed. « Easy to Find : Creating Query-Based Multi-Document Summaries to Enhance Web Search ». BYU ScholarsArchive, 2011. https://scholarsarchive.byu.edu/etd/2713.

Texte intégral
Résumé :
Current web search engines, such as Google, Yahoo!, and Bing, rank the set of documents S retrieved in response to a user query Q and display each document with a title and a snippet, which serves as an abstract of the corresponding document in S. Snippets, however, are not as useful as they are designed for, i.e., to assist search engine users to quickly identify results of interest, if they exist, without browsing through the documents in S, since they (i) often include very similar information and (ii) do not capture the main content of the corresponding documents. Moreover, when the intended information need specified in a search query is ambiguous, it is difficult, if not impossible, for a search engine to identify precisely the set of documents that satisfy the user's intended request. Furthermore, a document title retrieved by web search engines is not always a good indicator of the content of the corresponding document, since it is not always informative. All these design problems can be solved by our proposed query-based, web informative summarization engine, denoted Q-WISE. Q-WISE clusters documents in S, which allows users to view segregated document collections created according to the specific topic covered in each collection, and generates a concise/comprehensive summary for each collection/cluster of documents. Q-WISE is also equipped with a query suggestion module that provides a guide to its users in formulating a keyword query, which facilitates the web search and improves the precision and recall of the search results. Experimental results show that Q-WISE is highly effective and efficient in generating a high quality summary for each cluster of documents on a specific topic, retrieved in response to a Q-WISE user's query. The empirical study also shows that Q-WISE's clustering algorithm is highly accurate, labels generated for the clusters are useful and often reflect the topic of the corresponding clustered documents, and the performance of the query suggestion module of Q-WISE is comparable to commercial web search engines.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Passant, Alexandre. « Technologies du Web Sémantique pour l’Entreprise 2.0 ». Thesis, Paris 4, 2009. http://www.theses.fr/2009PA040077/document.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse proposent différentes méthodes, réflexions et réalisations associant Web 2.0 et Web Sémantique. Après avoir introduit ces deux notions, nous présentons les limites actuelles de certains outils, comme les blogs ou les wikis, et des pratiques de tagging dans un contexte d’Entreprise 2.0. Nous proposons ensuite la méthode SemSLATES et la vision globale d’une architecture de médiation reposant sur les standards du Web Sémantique (langages, modèles, outils et protocoles) pour pallier à ces limites. Nous détaillons par la suite différentes ontologies (au sens informatique) développées pour mener à bien cette vision : d’une part, en contribuant activement au projet SIOC - Semantically-Interlinked Online Communities -, des modèles destinés aux méta-données socio-structurelles, d’autre part des modèles, étendant des ontologies publiques, destinés aux données métier. De plus, la définition de l’ontologie MOAT - Meaning Of A Tag - nous permet de coupler la souplesse du tagging et la puissance de l'indexation à base d’ontologies. Nous revenons ensuite sur différentes implémentations logicielles que nous avons mises en place à EDF R&D pour permettre de manière intuitive la production et l'utilisation d'annotations sémantiques afin d’enrichir les outils initiaux : wikis sémantiques, interfaces avancées de visualisation (navigation à facettes, mash-up sémantique, etc.) et moteur de recherche sémantique. Plusieurs contributions ont été publiées sous forme d'ontologies publiques ou de logiciels libres, contribuant de manière plus large à cette convergence entre Web 2.0 et Web Sémantique non seulement en entreprise mais sur le Web dans son ensemble
The work described in this thesis provides different methods, thoughts and implementations combining Web 2.0 and the Semantic Web. After introducing those terms, we present the current shortcomings of tools such as blogs and wikis as well as tagging practices in an Enterprise 2.0 context. We define the SemSLATES methodology and the global vision of a middleware architecture based on Semantic Web technologies (languages, models, tools and protocols) to solve these issues. Then, we detail the various ontologies (as in computer science) that we build to achieve this goal: on the one hand models dedicated to socio-structural meta-data, by actively contributing to SIOC - Semantically-Interlinked Online Communities -, and on the other hands models extending public ontologies for domain data. Moreover, the MOAT ontology - Meaning Of A Tag – allows us to combine the flexibility of tagging and the power of ontology-based indexing. We then describe several software implementations, at EDF R&D, dedicated to easily produce and use semantic annotations to enrich original tools: semantic wikis, advanced visualization interfaces (faceted browsing, semantic mash-ups, etc.) and a semantic search engine. Several contributions have been published as public ontologies or open-source software, contributing more generally to this convergence between Web 2.0 and the Semantic Web, not only in enterprise but on the Web as a whole
Styles APA, Harvard, Vancouver, ISO, etc.
40

Cao, Hanyang. « Développement d'applications Web avec des composants tiers ». Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0017/document.

Texte intégral
Résumé :
Les applications Web sont très populaires et l'utilisation de certaines d'entre elles (p. ex. Facebook, Google) fait de plus en plus partie de nos vies. Les développeurs sont impatients de créer diverses applications Web pour répondre à la demande croissante des gens. Pour construire une application Web, les développeurs doivent connaître quelques technologies de programmation de base. De plus, ils préfèrent utiliser certains composants tiers (tels que les bibliothèques côté serveur, côté client, services REST) dans les applications web. En incluant ces composants, ils pourraient bénéficier de la maintenabilité, de la réutilisabilité, de la lisibilité et de l'efficacité. Dans cette thèse, nous proposons d'aider les développeurs à utiliser des composants tiers lorsqu'ils créent des applications web. Nous présentons trois obstacles lorsque les développeurs utilisent les composants tiers: Quelles sont les meilleures bibliothèques JavaScript à utiliser? Comment obtenir les spécifications standard des services REST? Comment s'adapter aux changements de données des services REST? C'est pourquoi nous présentons trois approches pour résoudre ces problèmes. Ces approches ont été validées par plusieurs études de cas et données industrielles. Nous décrivons certains travaux futurs visant à améliorer nos solutions et certains problèmes de recherche que nos approches peuvent cibler
Web applications are highly popular and using some of them (e.g., Facebook, Google) is becoming part of our lives. Developers are eager to create various web applications to meet people's increasing demands. To build a web application, developers need to know some basic programming technologies. Moreover, they prefer to use some third-party components (such as server-side libraries, client-side libraries, REST services) in the web applications. By including those components, they could benefit from maintainability, reusability, readability, and efficiency. In this thesis, we propose to help developers to use third-party components when they create web applications. We present three impediments when developers using the third-party components: What are the best JavaScript libraries to use? How to get the standard specifications of REST services? How to adapt to the data changes of REST services? As such, we present three approaches to solve these problems. Those approaches have been validated through several case studies and industrial data. We describe some future work to improve our solutions, and some research problems that our approaches can target
Styles APA, Harvard, Vancouver, ISO, etc.
41

Benouaret, Karim. « Advanced techniques for Web service query optimization ». Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10177/document.

Texte intégral
Résumé :
De nos jours, nous assistons à l’émigration du Web de données vers le Web orienté services. L’amélioration des capacités et fonctionnalités des moteurs actuels de recherche sur le Web, par des techniques efficaces de recherche et de sélection de services, devient de plus en plus importante. Dans cette thèse, dans un premier temps, nous proposons un cadre de composition de services Web en tenant compte des préférences utilisateurs. Le modèle fondé sur la théorie des ensembles flous est utilisé pour représenter les préférences. L’approche proposée est basée sur une version étendue du principe d’optimalité de Pareto. Ainsi, la notion des top-k compositions est introduite pour répondre à des requêtes utilisateurs de nature complexe. Afin d’améliorer la qualité de l’ensemble des compositions retournées, un second filtre est appliqué à cet ensemble en utilisant le critère de diversité. Dans un second temps, nous avons considéré le problème de la sélection des services Web en présence de préférences émanant de plusieurs utilisateurs. Une nouvelle variante, appelée Skyline de services à majorité, du Skyline de services traditionnel est défini. Ce qui permet aux utilisateurs de prendre une décision « démocratique » conduisant aux services les plus appropriés. Un autre type de Skyline de services est également discuté dans cette thèse. Il s’agit d’un Skyline de Services de nature graduelle et se fonde sur une relation de dominance floue. Comme résultat, les services Web présentant un meilleur compromis entre les paramètres QoS sont retenus, alors que les services Web ayant un mauvais compromis entre les QoS sont exclus. Finalement, nous avons aussi absorbé le cas où les QoS décrivant les services Web sont entachés d’incertitude. La théorie des possibilités est utilisée comme modèle de l’incertain. Ainsi, un Skyline de Services possibilité est proposé pour permettre à l’utilisateur de sélectionner les services Web désirés en présence de QoS incertains. De riches expérimentations ont été conduites afin d’évaluer et de valider toutes les approches proposées dans cette thèse
As we move from a Web of data to a Web of services, enhancing the capabilities of the current Web search engines with effective and efficient techniques for Web services retrieval and selection becomes an important issue. In this dissertation, we present a framework that identifies the top-k Web service compositions according to the user fuzzy preferences based on a fuzzification of the Pareto dominance relationship. We also provide a method to improve the diversity of the top-k compositions. An efficient algorithm is proposed for each method. We evaluate our approach through a set of thorough experiments. After that, we consider the problem of Web service selection under multiple users preferences. We introduce a novel concept called majority service skyline for this problem based on the majority rule. This allows users to make a “democratic” decision on which Web services are the most appropriate. We develop a suitable algorithm for computing the majority service skyline. We conduct a set of thorough experiments to evaluate the effectiveness of the majority service skyline and the efficiency of our algorithm. We then propose the notion of α-dominant service skyline based on a fuzzification of Pareto dominance relationship, which allows the inclusion of Web services with a good compromise between QoS parameters, and the exclusion ofWeb services with a bad compromise between QoS parameters. We develop an efficient algorithm based on R-Tree index structure for computing efficiently the α-dominant service skyline. We evaluate the effectiveness of the α-dominant service skyline and the efficiency of the algorithm through a set of experiments. Finally, we consider the uncertainty of the QoS delivered by Web services. We model each uncertain QoS attribute using a possibility distribution, and we introduce the notion of pos-dominant service skyline and the notion of nec-dominant service skyline that facilitates users to select their desired Web services with the presence of uncertainty in their QoS. We then developappropriate algorithms to efficiently compute both the pos-dominant service skyline and nec-dominant service skyline. We conduct extensive sets of experiments to evaluate the proposed service skyline extensions and algorithms
Styles APA, Harvard, Vancouver, ISO, etc.
42

Petit, Albin. « Introducing privacy in current web search engines ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI016/document.

Texte intégral
Résumé :
Au cours des dernières années les progrès technologiques permettant de collecter, stocker et traiter d'importantes quantités de données pour un faible coût, ont soulevés de sérieux problèmes concernant la vie privée. La protection de la vie privée concerne de nombreux domaines, en particulier les sites internet fréquemment utilisés comme les moteurs de recherche (ex. : Google, Bing, Yahoo!). Ces services permettent aux utilisateurs de retrouver efficacement du contenu sur Internet en exploitant leurs données personnelles. Dans ce contexte, développer des solutions pour permettre aux utilisateurs d'utiliser ces moteurs de recherche tout en protégeant leurs vies privées est devenu primordial. Dans cette thèse, nous introduirons SimAttack, une attaque contre les solutions protégeant la vie privée de l'utilisateur dans ses interactions avec les moteurs de recherche. Cette attaque vise à retrouver les requêtes initialement envoyées par l'utilisateur. Nous avons montré avec cette attaque que trois mécanismes représentatifs de l’état de l’art ne sont pas satisfaisants pour protéger la vie privée des utilisateurs. Par conséquent, nous avons développé PEAS, un nouveau mécanisme de protection qui améliore la protection de la vie privée de l'utilisateur. Cette solution repose sur deux types de protection : cacher l'identité de l'utilisateur (par une succession de deux serveurs) et masquer sa requête (en la combinant avec des fausses requêtes). Afin de générer des fausses requêtes réalistes, PEAS se base sur les précédentes requêtes envoyées par les utilisateurs du système. Pour finir, nous présenterons des mécanismes permettant d'identifier la sensibilité des requêtes. Notre objectif est d'adapter les mécanismes de protection existants pour protéger uniquement les requêtes sensibles, et ainsi économiser des ressources (ex. : CPU, mémoire vive). Nous avons développé deux modules pour identifier les requêtes sensibles. En déployant ces modules sur des mécanismes de protection existants, nous avons établi qu'ils permettent d'améliorer considérablement leurs performances
During the last few years, the technological progress in collecting, storing and processing a large quantity of data for a reasonable cost has raised serious privacy issues. Privacy concerns many areas, but is especially important in frequently used services like search engines (e.g., Google, Bing, Yahoo!). These services allow users to retrieve relevant content on the Internet by exploiting their personal data. In this context, developing solutions to enable users to use these services in a privacy-preserving way is becoming increasingly important. In this thesis, we introduce SimAttack an attack against existing protection mechanism to query search engines in a privacy-preserving way. This attack aims at retrieving the original user query. We show with this attack that three representative state-of-the-art solutions do not protect the user privacy in a satisfactory manner. We therefore develop PEAS a new protection mechanism that better protects the user privacy. This solution leverages two types of protection: hiding the user identity (with a succession of two nodes) and masking users' queries (by combining them with several fake queries). To generate realistic fake queries, PEAS exploits previous queries sent by the users in the system. Finally, we present mechanisms to identify sensitive queries. Our goal is to adapt existing protection mechanisms to protect sensitive queries only, and thus save user resources (e.g., CPU, RAM). We design two modules to identify sensitive queries. By deploying these modules on real protection mechanisms, we establish empirically that they dramatically improve the performance of the protection mechanisms
Styles APA, Harvard, Vancouver, ISO, etc.
43

Mekki, Mohamed-Anis. « Synthèse et compilation de services web sécurisés ». Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10123/document.

Texte intégral
Résumé :
La composition automatique de services web est une tâche difficile. De nombreux travaux ont considérés des modèles simplifiés d'automates qui font abstraction de la structure des messages échangés par les services. Pour le domaine des services sécurisés nous proposons une nouvelle approche pour automatiser la composition des services basée sur leurs politiques de sécurité. Étant donnés, une communauté de services et un service objectif, nous réduisons le problème de la synthèse de l'objectif à partir des services dans la communauté à un problème de sécurité, où un intrus que nous appelons médiateur doit intercepter et rediriger les messages depuis et vers la communauté de services et un service client jusqu'à atteindre un état satisfaisant pour le dernier. Nous avons implémenté notre algorithme dans la plateforme de validation du projet AVANTSSAR et nous avons testé l'outil correspondant sur plusieurs études de cas. Ensuite, nous présentons un outil qui compile les traces obtenues décrivant l'exécution d'un médiateur vers le code exécutable correspondant. Pour cela nous calculons d'abord une spécification exécutable aussi prudente que possible de son rôle dans l'orchestration. Cette spécification est exprimé en ASLan, un langage formel conçu pour la modélisation des services Web liés à des politiques de sécurité. Ensuite, nous pouvons vérifier avec des outils automatiques que la spécification ASLan obtenue vérifie certaines propriétés requises de sécurité telles que le secret et l'authentification. Si aucune faille n'est détectée, nous compilons la spécification ASLan vers une servlet Java qui peut être utilisé par le médiateur pour contrôler l'orchestration
Automatic composition of web services is a challenging task. Many works have considered simplified automata models that abstract away from the structure of messages exchanged by the services. For the domain of secured services we propose a novel approach to automated composition of services based on their security policies. Given a community of services and a goal service, we reduce the problem of composing the goal from services in the community to a security problem where an intruder we call mediator should intercept and redirect messages from the service community and a client service till reaching a satisfying state. We have implemented the algorithm in AVANTSSAR Platform and applied the tool to several case studies. Then we present a tool that compiles the obtained trace describing the execution of a the mediator into its corresponding runnable code. For that we first compute an executable specification as prudent as possible of her role in the orchestration. This specification is expressed in ASLan language, a formal language designed for modeling Web Services tied with security policies. Then we can check with automatic tools that this ASLan specification verifies some required security properties such as secrecy and authentication. If no flaw is found, we compile the specification into a Java servlet that can be used by the mediatior to lead the orchestration
Styles APA, Harvard, Vancouver, ISO, etc.
44

Sun, Hua. « Telephone directory web service ». CSUSB ScholarWorks, 2003. https://scholarworks.lib.csusb.edu/etd-project/2421.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
45

Bonnenfant, Bruno Veyron Thierry. « Définir une politique d'archivage du web régional en bibliothèque municipale l'exemple du web forézien / ». [S.l.] : [s.n.], 2008. http://www.enssib.fr/bibliotheque-numerique/document-2042.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
46

Richard-Foy, Julien. « Ingénierie des applications Web : réduire la complexité sans diminuer le contrôle ». Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S110/document.

Texte intégral
Résumé :
L'automatisation de certaines tâches et traitements d'information grâce aux outils numériques permet de réaliser des économies considérables sur nos activités. Le Web est une plateforme propice à la mise en place de tels outils : ceux-ci sont hébergés par des serveurs, qui centralisent les informations et coordonnent les utilisateurs, et ces derniers accèdent aux outils depuis leurs terminaux clients (ordinateur, téléphone, tablette, etc.) en utilisant un navigateur Web, sans étape d'installation. La réalisation de ces applications Web présente des difficultés pour les développeurs. La principale difficulté vient de la distance entre les postes client et serveur. D'une part, la distance physique (ou distance matérielle ) entre les machines nécessite qu'une connexion réseau soit toujours établie entre elles pour que l'application fonctionne correctement. Cela pose plusieurs problèmes : comment gérer les problèmes de latence lors des échanges d'information ? Comment assurer une qualité de service même lorsque la connexion réseau est interrompue ? Comment choisir quelle part de l'application s'exécute sur le client et quelle part s'exécute sur le serveur ? Comment éviter aux développeurs d'avoir à résoudre ces problèmes sans pour autant masquer la nature distribuée des applications Web et au risque de perdre les avantages de ces architectures ? D'autre part, l'environnement d'exécution est différent entre les clients et serveurs, produisant une distance logicielle. En effet, côté client, le programme s'exécute dans un navigateur Web dont l'interface de programmation (API) permet de réagir aux actions de l'utilisateur et de mettre à jour le document affiché. De l'autre côté, c'est un serveur Web qui traite les requêtes des clients selon le protocole HTTP. Certains aspects d'une application Web peuvent être communs aux parties client et serveur, par exemple la construction de morceaux de pages Web, la validation de données saisies dans les formulaires, la navigation ou même certains calculs métier. Cependant, comme les API des environnements client et serveur sont différentes, comment mutualiser ces aspects tout en bénéficiant des mêmes performances d'exécution qu'en utilisant les API natives ? De même, comment conserver la possibilité de tirer parti des spécificités de chaque environnement ? Les travaux de cette thèse ont pour but de raccourcir cette distance, tant logicielle que matérielle, tout en préservant la capacité à tirer parti de cette distance, c'est-à-dire en donnant autant de contrôle aux développeurs
Thanks to information technologies, some tasks or information process can be automated, thus saving a significant amount of money. The web platform brings numerous of such digital tools. These are hosted on web servers that centralize information and coordinate users, which can use the tools from several kinds of devices (desktop computer, laptop, smartphone, etc.), by using a web browser, without installing anything. Nevertheless, developing such web applications is challenging. The difficulty mainly comes from the distance between client and server devices. First, the physical distance between these machines requires them to be networked. This raises several issues. How to manage latency ? How to provide a good quality of service even when the network is down ? How to choose on which side (client or server) to execute a computation ? How to free developers from addressing these problems without yet hiding the distributed nature of web application so that they can still benefit from their advantages ? Second, the execution environment is different between clients and servers. Indeed, on client-side the program is executed within a web browser whose API provides means of reacting to user actions and of updating the page. On server-side, the program is executed on a web server that processes HTTP requests. Some aspects of web applications can be shared between client and server sides (e.g. content display, form validation, navigation, or even some business computations). However, the APIs and environments are different between clients and servers, so how to share the same code while keeping the same execution performance as with native APIs ? How to keep the opportunity to leverage the specificities of a given platform ? This work aims at shortening this distance while keeping the opportunity to leverage it, that is while giving developers as much expressive power
Styles APA, Harvard, Vancouver, ISO, etc.
47

Zhang, Tuo. « Vers une médiation de composition dynamique de Services Web dans des environnements ubiquitaires ». Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132042/document.

Texte intégral
Résumé :
De nos jours, l’ouverture à la concurrence stimule les fournisseurs de services à être de plus en plus compétitifs et à attirer de plus en plus d’abonnés afin de faire face aux fortes pressions du marché. L’approche user-centric, qui consiste à fournir le plus rapidement possible des services adaptés aux besoins de l’usager, attire de plus en plus d’attention suite à l’émergence de l’environnement ubiquitaire. L’interopérabilité, aussi bien celle entre utilisateur et service que celle entre les services, est favorisée par l’adoption de SOA (architecture orientée service) comme modèle de développement, ainsi que les services Web qui combinent les avantages de ce modèle avec les langages et technologies développés pour Internet.Notamment, la composition dynamique de service Web est considérée comme un atout majeur, qui permet de répondre à des requêtes complexes en combinant les fonctionnalités de plusieurs services au sein d’une session personnalisée. Les services sont divers et variés et des services similaires pourraient être fournis depuis des plateformes hétérogènes. Dans un environnement ubiquitaire, les utilisateurs sont mobiles, cette mobilité se manifeste aussi bien à travers les réseaux empruntés que les terminaux utilisés. Ceci entraine une possible mobilité de services (aussi bien en termes de serveur effectif qu’en termes de services équivalents). C’est dans ce contexte dynamique et ubiquitaire, qui est celui choisi par le projet ANR/UBIS (dont cette thèse est partiellement issue), que nous avons mené nos recherches sur le thème particulier de la médiation de composition dynamique de services web. Plus précisément, nous proposons une approche de médiation qui consiste à recenser puis organiser de divers services concrets (aussi bien SOAP que RESTFul) pour constituer une panoplie des services abstraits d’une part, puis, à partir desquels, à offrir aux usagers les possibilités de réaliser des services personnalisés selon leur besoins (logique métier) par composition dynamiquement de ces services abstraits et de leur association avec le service concret le plus approprié. Nous avons considéré les trois types de composition de services (SOAP/SOAP, SOAP/RESTful, RESTful/RESTful) dans notre médiation. Selon le souhait de l’usager, cette composition (Mashup du coté de médiateur) peut lui être retournée et que l’usager peut invoquer de manière autonome, ou bien le médiateur peut assurer la réalisation du service composé et fournir seulement le résultat final à l’usager. Dans ce dernier cas, les différentes mobilités peuvent être prises en compte par le médiateur, qui s’appuie sur les mécanismes de la communauté virtuelle préconisés par le projet UBIS pour activer les services concrets les plus appropriés correspondant à un service
Nowadays, high market pressure stimulates service providers to be more competitive in order to attract more subscribers. The user-centric approach, which aims to provide adapted services to user’s needs, is attracting a great attention thanks to the emergence of ubiquitous environment. The interoperability, either that between users and services or that among services, is favored by the adoption of SOA (Service Oriented Architecture), as a development model as well as the Web services that combine the advantages of this model with the language and development technologies devoted to Internet-based applications. In particular, the dynamic Web service composition is currently the main practice which allows achieving enhanced services, as an answer to increasing complex requests by users for various types of services, by combining functionalities of multiple services within a single and personalized service session. Indeed, already available services are numerous and of various natures, similar services can be provided by heterogeneous platforms. In a ubiquitous environment, users are mobile, either by changing the access network or by changing the terminal, or even both of them. This leads in turn to potential needs on mobility of services, both in terms of the (physical) server and in terms of the (equivalent) services. It is in this dynamic and ubiquitous context that we have conducted our research. In particular, we focused on the particular topic of mediation of dynamic composition of web services. We proposed a mediation approach which consists in identifying and organizing various concrete services (both SOAP and RESTful) to form a set of abstract services, and, from this knowledge base, to provide users the possibility to realize personalized service session according to their needs through dynamic composition of some of the abstract services and their mapping to best suited concrete services. We considered three types of service composition (SOAP/SOAP, SOAP/RESTful, RESTful/RESTful) in our mediation. Depending on the user’s will, this composition (Mashup on the side of the mediator) can be returned to him/her, so that he/she can invoke it autonomously; or the mediator can ensure the realization of the composed services and provide only the final result to the user. In the latter case, the mediator can handle the aforementioned different mobility. This feature is achieved by exploring the mechanism of the virtual community to select the most appropriate concrete service corresponding to the abstract service and maintain the continuity of service while respecting its requested QoS. The virtual community has been developed within the ANR/UBIS project (to which part of this thesis is related)
Styles APA, Harvard, Vancouver, ISO, etc.
48

Manabe, Tomohiro. « Web Search Based on Hierarchical Heading-Block Structure Analysis ». 京都大学 (Kyoto University), 2016. http://hdl.handle.net/2433/215681.

Texte intégral
Résumé :
The contents of Section 2.2 and Chapter 4 first appeared in proceedings of the 12th International Conference on Web Information Systems and Technologies, 2016 (www.webist.org). The contents of Section 2.3 and Chapter 5 first appeared in DBSJ Journal, vol. 14, article no. 2, March 2016. The contents of Section 2.5 and Chapter 7 first appeared in proceedings of the 11th Asia Information Retrieval Societies Conference, Lecture Notes in Computer Science, vol. 9460, pp. 188-200, 2015 (The final publication is available at link.springer.com).
Kyoto University (京都大学)
0048
新制・課程博士
博士(情報学)
甲第19854号
情博第605号
新制||情||105(附属図書館)
32890
京都大学大学院情報学研究科社会情報学専攻
(主査)教授 田島 敬史, 教授 田中 克己, 教授 吉川 正俊
学位規則第4条第1項該当
Styles APA, Harvard, Vancouver, ISO, etc.
49

Lobbe, Quentin. « Archives, fragments Web et diasporas : pour une exploration désagrégée de corpus d'archives Web liées aux représentations en ligne des diasporas ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT017/document.

Texte intégral
Résumé :
Le Web est un environnement éphémère. Alors que de nouveaux sites Web émergent chaque jour, il arrive que certaines communautés disparaissent entièrement de la surface de la toile, ne laissant derrière elles que des traces incomplètes voire inexistantes. Face à la volatilité du Web vivant, plusieurs initiatives d’archivage cherchent malgré tout à préserver la mémoire du Web passé. Mais aujourd’hui, force est de constater qu’un mystère demeure : Pourquoi, alors qu’elles n’ont jamais été aussi vastes et aussi nombreuses, les archives Web ne font-elles pas déjà l’objet de multiples recherches historiques ? Initialement construites pour inscrire la mémoire de la toile sur un support durable, ces archives ne doivent pourtant pas être considérées comme une représentation fidèle du Web vivant. Elles sont les traces directes des outils de collecte qui les arrachent à leur temporalité d’origine. Partant de là, cette thèse ambitionne de redonner aux chercheurs les moyens théoriques et techniques d’une plus grande maniabilité du Web passé, en définissant une nouvelle unité d’exploration des archives Web : le fragment Web, un sous-ensemble cohérent et auto-suffisant d’une page Web. Pour ce faire, nous nous inscrirons dans l’héritage des travaux pionniers de l’Atlas e-Diasporas qui permit, dans les années 2000, de cartographier et d’archiver plusieurs milliers de sites Web migrants. Source principale de données à partir desquelles nous déploierons nos réflexions, c’est à travers l’angle particulier des représentations en ligne des diasporas que nous chercherons à explorer les archives Web de l’Atlas
The Web is an unsteady environment. As Web sites emerge every days, whole communities may fade away over time by leaving too few or incomplete traces on the living Web. Facing this phenomenon, several archiving initiatives try to preserve the memory of the Web. But today, a mystery remains : While they have never been so vast and numerous, why are the Web archives not already the subject of many historical researches ? In reality, Web archives should not be considered as a faithful representation of the living Web. In fact, they are the direct traces of the archiving tools that tear them away from their original temporality. Thus, this thesis aims to give researchers the theoretical and technical means for a greater manageability of the Web archives, by defining a new unit of exploration : the Web fragment, a coherent and self-sufficient subset of a Web page. To that end, we will follow the pioneering work of the e-Diasporas Atlas which allowed, in the 2000s, to map and archive thousands of migrant Web sites. Main source of data from which we will unfold our reflections, it is through the particular angle of online representations of diasporas that we will explore the Web archives of the Atlas
Styles APA, Harvard, Vancouver, ISO, etc.
50

Othman, Abdallah Mohamad. « MELQART : un système d'exécution de mashups avec disponibilité de données ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM010/document.

Texte intégral
Résumé :
Cette thèse présente MELQART, un système d'exécution de mashups avec disponibilité de données. Un mashup est une application web qui combine des données provenant de fournisseurs hétérogènes (web services). Ces données sont agrégées pour former un résultat homogène affiché dans des composants appelés mashlets. Les travaux dans le domaine des mashups, se sont principalement intéressés au fonctionnement des mashups, aux différents outils de construction et à leur utilisation et interaction avec les utilisateurs. Dans cette thèse, nous nous intéressons à la gestion de données dans les mashups et plus particulièrement à la disponibilité et la fraîcheur de ces données. L'amélioration de la disponibilité tient compte du caractère dynamique des données des mashups. Elle garantit (1) l'accès aux données même si le fournisseur est indisponible, (2) la fraicheur de ces données et (3) un partage de données entre les mashups afin d'augmenter la disponibilité de données. Pour cela nous avons défini un modèle de description de mashups permettant de spécifier les caractéristiques de disponibilité des données. Le principe d'exécution de mashups est défini selon ce modèle en proposant d'améliorer la disponibilité et la fraicheur des données du mashup par des fonctionnalités orthogonales à son processus d'exécution. Le système MELQART implante ce principe et permet de valider notre approche à travers l'exécution de plusieurs instances de mashups dans des conditions aléatoires de rupture de communication avec les fournisseurs de données
This thesis presents MELQART: a mashup execution system that ensures data availability. A mashup is a Web application that application that combines data from heterogeneous provides (Web services). Data are aggregated for building a homogenous result visualized by components named mashlets. Previous works have mainly focused, on the definition of mashups and associated tools and on their use and interaction with users. In this thesis, we focus on mashups data management, and more specifically on fresh mashups data availability. Improving the data availability take into account the dynamic aspect of mashups data. It ensures (1) the access to the required data even if the provider is unavailable, (2) the freshness of these data and (3) the data sharing between mashups in order to avoid the multiple retrieval of the same data. For this purpose, we have defined a mashup description formal model, which allows the specification of data availability features. The mashups execution schema is defined according to this model with functionalities that improve availability and freshness of mashed-up data. These functionalities are orthogonal to the mashup execution process. The MELQART system implements our contribution and validates it by executing mashups instances with unpredictable situations of broken communications with data providers
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie