Letteratura scientifica selezionata sul tema "Annotations de données"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Annotations de données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Annotations de données":

1

Rizkallah, Élias. "L’analyse textuelle des discours assistée par ordinateur et les logiciels textométriques : réflexions critiques et prospectives à partir d’une modélisation des procédés analytiques fondamentaux". Cahiers de recherche sociologique, n. 54 (24 luglio 2014): 141–60. http://dx.doi.org/10.7202/1025996ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Partant d’un constat d’une focalisation de l’analyse de discours française sur les logiciels textométriques, l’auteur tente de modéliser les procédés fondamentaux sous-jacents à l’interaction analyste-texte en distinguant les modes, les opérations, les dimensions, la granularité, la contextualité et la temporalité de la démarche, et ce, avec ou sans recours aux traitements informatiques. À la lumière de cette modélisation, les logiciels textométriques montrent que l’assistance du chercheur est souvent une question de donner à voir, via des procédés d’interrogation, d’assignation automatique et de représentation, des données textuelles et extratextuelles, mais très rarement une question d’accompagner le chercheur dans son travail du texte (p. ex. annotation sur mesure, multiplicité des couches de lecture, évolution du corpus) pour produire et construire du sens par ses traces d’analyses dans un environnement intégré. Les origines de cette tendance sont discutées ainsi que les orientations pour les développements à venir.
2

Delafontaine, François, Biagio Ursi e Luisa Acosta. "Annotation des proéminences pour la segmentation de corpus oraux : l’expérience du projet SegCor". SHS Web of Conferences 46 (2018): 11001. http://dx.doi.org/10.1051/shsconf/20184611001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le but d’annoter des unités syntaxiques, macrosyntaxiques et interactionnelles, et pour confirmer le recours aux indices prosodiques faits par les annotateurs, nous avons voulu disposer d’une annotation prosodique sous la forme de proéminences et reprenant le protocole établi par le projet Rhapsodie. Après avoir préparé nos données, nous avons procédé à l’annotation manuelle par trois annotateurs, ainsi qu’à l’annotation automatique à l’aide de l’outil ANALOR. Cette expérience nous a amené à réviser le protocole concernant la hauteur mélodique et l’attaque syllabique, tandis que les résultats obtenus soulignent le potentiel de ces révisions. Nous avons constaté la nécessité des sessions d’entraînement entre les annotateurs non experts avant l’annotation, ainsi que la nécessité d’entraînement de l’outil d’annotation automatique, qui a fait preuve de robustesse sur un enregistrement audio jugé de mauvaise qualité.
3

Brown, Piers. "“Hac ex consilio meo via progredieris”: Courtly Reading and Secretarial Mediation in Donne's The Courtier's Library*". Renaissance Quarterly 61, n. 3 (2008): 833–66. http://dx.doi.org/10.1353/ren.0.0178.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
John Donne'sThe Courtier's Library(ca. 1603–11) is a catalogue of imaginary books that derives its inspiration from Rabelais's satirical description of the Library of St. Victor. Donne's depiction of courtly knowledge parodies the humanist work that secretaries performed for their masters by offering a path to ignorance and mockery rather than a path to learning and advancement. This essay investigatesThe Courtier's Library, published here in a new translation (see Appendix), in the context of Donne's habits of reading, marginal annotation, and note-taking, examining both the complicated negotiation involved in producing knowledge for courtly display, and Donne's own attempts to reconcile the roles of secretary, scholar, and gentleman.
4

Grisot, Cristina. "domaines linguistiques de la subjectivité du locuteur: étude empirique avec données de corpus". Travaux neuchâtelois de linguistique, n. 71 (1 gennaio 2019): 19–43. http://dx.doi.org/10.26034/tranel.2019.2990.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
In this article we report the results of an empirical study with corpus data targeting the identification of the linguistic domains of the speaker's subjectivity – broadly understood as referring to the expression of the speaker's perspective, emotions and attitudes. In order to attain this aim, we carried out an annotation study on corpus data (randomly selected from a literary text and from a journalistic text), formulated hypotheses on the basis of the state of the research and analysed the data with respect to three variables: the register, the source of subjectivity (speaker or third party) and the types of linguistic cues indicating the speaker's subjectivity. Our quantitative analyses showed that (i) the register does not influence the expression of subjectivity, (ii) the main linguistic domains of subjectivity are the affective-evaluative lexicon and syntactic structures, (iii) that deictic subjectivity is in fact non-subjective and that speaker's subjectivity refers only to affective-evaluative subjectivity. More generally, this article makes a methodological contribution about how to study an almost ineffable phenomenon, speaker's subjectivity, in a neutral and empirical manner.
5

Pajón Leyra, Irene, Arnaud Zucker e Catherine Faron-Zucker. "Thezoo : un thésaurus de zoologie ancienne et médiévale pour l’annotation de sources de données hétérogènes". Archivum Latinitatis Medii Aevi 73, n. 1 (2015): 321–42. http://dx.doi.org/10.3406/alma.2015.1180.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This paper presents a thesaurus of ancient and medieval zoological knowledge, called THEZOO, constructed in the framework of the International Research Group Zoomathia. It aims at integrating heterogeneous data sources on zoology in Antiquity and Middle Ages : mainly texts, but also images, archaeological objects and archaeozoological material. The development process of THEZOO combines 1) the manual annotation of books VIII-XI of Pliny the Elder’s Natural History, chosen as a reference dataset to elicit the concepts to be integrated in the thesaurus, and 2) the definition and hierarchical organization of the elicited concepts in the thesaurus. THEZOO is formalized in SKOS, the W3C standard to represent knowledge organization systems on the Web of data, and it is created with the Opentheso editor. Our final aim is to publish the thesaurus THEZOO as well as the corpus of annotated textual, iconograph ical and archeological resources, to support a semantic search in the corpus in different languages.
6

Bakhtouchi, Abdelghani. "Annotation des propriétés des ontologies. Une approche d’optimisation des requêtes sur un médiateur de sources de données à base ontologique". Techniques et sciences informatiques 33, n. 4 (febbraio 2014): 371–98. http://dx.doi.org/10.3166/tsi.33.371-398.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Feltgen, Quentin, Georgeta Cislaru e Christophe Benzitoun. "Étude linguistique et statistique des unités de performance écrite : le cas de et". SHS Web of Conferences 138 (2022): 10001. http://dx.doi.org/10.1051/shsconf/202213810001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cet article aborde la question de la segmentation par des pauses du flux de production écrite enregistré en temps réel et de la motivation linguistique et statistique de l’emplacement des pauses. En effet, les pauses segmentant des séquences textuelles linguistiquement analysables, il est crucial de comprendre si des contraintes régulières en fixent les frontières. Nous avons choisi de nous pencher sur le cas de la conjonction et, en vertu de la diversité sémantique et morphosyntaxique des relations qu’elle sémiotise. Après avoir mis en perspective les résultats d’une analyse de corpus antérieure, nous procédons à une annotation manuelle des occurrences en départageant les emplois extra- et intraphrastiques de et dans un corpus de textes courts produits par des adultes (étudiants). Une méthode d’analyse statistique est ensuite appliquée aux données annotées pour tester les attentes statistiques en termes d’emplacement des pauses. Cette analyse permet de faire ressortir des différences de segmentation en fonction du type d’emploi de et.
8

Sinte, Aurélie. "Répéter, redire, reformuler : analyse plurisémiotique de conférences TEDx". SHS Web of Conferences 46 (2018): 01001. http://dx.doi.org/10.1051/shsconf/20184601001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette proposition s’inscrit dans un large projet d’analyse des reformulations multimodales (RM) dans la construction du discours : décrire les relations qu’entretiennent trois canaux sémiotiques multimodaux (la parole (S1), la gestualité co-verbale (S2) et les supports de présentation (S3)) dans des discours scientifiques. L’objectif est de décrire comment les reformulations multimodales participent au caractère performant du discours, à la construction de sa cohérence. Les RM sont étudiées du point de vue interne à chaque système sémiotique (S1, S2, S3) et du point de vue du croisement d’un système à l’autre (rapport S1/S2, S1/S3, S2/S3 et S1/S2/S3). L’analyse en cours s’opère comme suit : repérage des passages où se trouvent des RM et les canaux mobilisés, annotation des données, analyse quantitative et qualitative des RM et des croisements, identification des paradigmes d’utilisation (des prestations sans RM à celles qui exploitent abondamment les croisements sur les 3 niveaux). Contrairement à ce qui a été avancé par d’autres, mon hypothèse est qu’il ne s’agit pas de deux (voire trois) discours distincts et simultanés. Je considère que la linéarité (de S1 d’une part, de S3 d’autre part) et la simultanéité des trois sources d’information (S1, S2 et S3) s’entrecroisent dans la construction d’un discours unique mais plurisémiotique.
9

Debrenne, Michèle. "« Fédéral → nous voilà » : de la nécessité d’annoter les dictionnaires d’associations évoquées par les mots". SHS Web of Conferences 138 (2022): 04014. http://dx.doi.org/10.1051/shsconf/202213804014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les champs associatifs, formés par les réponses obtenues à des tests psycholinguistiques en réaction à un stimulus donné, comprennent tous des réactions provoquées par des stratégies paradigmatiques et syntagmatiques découlant de la nature même de la langue. Cependant on y trouve également un certain nombre de réactions qui ne s’expliquent pas par ces stratégies : des noms propres, des citations, des réactions à la forme du stimulus. Ces items sont parfois difficiles à interpréter au bout de quelques années, et surtout pour le lecteur étranger, et ils doivent donner lieu à une annotation sous forme de commentaire ; l’article présente trois catégories de réactions nécessitant l’implémentation de commentaires : les noms propres, la précédence textuelle et les jeux de mots qui peuvent d’ailleurs se combiner.
10

Feenstra, R. "De Nieuwe Nederlandse Vertaling Van Hugo De Groot's De Iure Belli Ac Pacis Door J.F. Lindemans". Tijdschrift voor Rechtsgeschiedenis / Revue d'Histoire du Droit / The Legal History Review 63, n. 1-2 (1995): 143–60. http://dx.doi.org/10.1163/157181995x00086.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
AbstractEn octobre 1993 J.F. Lindemans publia une traduction néerlandaise des Prolégomènes et du Livre 1 du De iure belli ac pacis de Grotius, pourvue d'une introduction et de notes explicatives. Cette publication mérite un compte rendu assez détaillé que nous publions sous forme d'un article. Il s'agit d'une traduction intégrale: elle ne se borne pas au texte mais inclut l'annotation de Grotius. Elle suit l'editio maior de 1939, fondée sur un collationnement des cinq éditions préparées par Grotius lui-même. Malheureusement le traducteur n'a pas encore pu tenir compte de la réimpression anastatique de cette édition avec des notes additionelles, parue en septembre 1993 (cf. le compte rendu de P. Haggenmacher dans cette revue, t. 62 (1994), p. 402-406). Dans sa propre annotation Lindemans s'est fait inspirer dans une large mesure - mais pas toujours d'une façon heureuse - de celle de Jean Barbeyrac dans sa traduction française, publiée pour la première fois en 1724 (une réimpression anastatique parut en 1984). Il a ajouté cependant un certain nombre de nouvelles références, entre autres au traité De legibus (1613) de François Suarez, à qui Grotius doit peut-être plus qu'il ne l'a avoué. En utilisant les tables d'auteurs et de sources de l'édition de Lindemans on peut constater quelques graves déficiences dans l'identification des références grotiennes. Il a confondu notamment les Constitutiones Clementis (ou Constitutiones Apostolicae), qu'on a attribuées à St. Clément (le pape Clément I, décédé circa 100 après J. Chr.), avec les Clementinae du pape Clément V (1313-1314); dans l'une de ses notes L. mentionne encore comme auteur de ce texte le pape Clément III († 1191)! L'analyse de ces erreurs nous a amené à formuler quelques précisions sur un texte qui fait partie des Constitutiones Clementis, à savoir les Canones Apostolorum (version avec 84 ou 85 canones, à distinguer de celle avec 50 canones qui figure dans la collectio Dionysiana). Grotius en possédait une édition à part avant son emprisonnement mais pour le De iure belli ac pacis il s'est probablement servi d'une autre édition. La traduction même laisse à désirer dans nombre de passages, notamment quand il s'agit de rendre des nuances juridiques. Nous donnons des exemples pour les §§ 8, 53, 54 et 55 des Prolégomènes et pour I, 1, 4-6, I, 3, 4-5, I, 3, 12, 3 et I, 3, 24. Aux endroits où le traducteur se sert de termes latins on doute souvent de ses connaissances de cette langue (dans des cas comme 'societas civile' ou 'summum potestas' il ne peut pas s'agir d'erreurs typographiques). Lindemans fait également preuve d'un manque assez grave de connaissances en ce qui concerne la bibliographie grotienne. Son ignorance dans le domaine de l'histoire du droit, notamment pour la période du ius commune, est alarmante. Si la traduction sera continuée pour les livres II et III du De iure belli ac pacis on doit espérer que de pareilles déficiences seront évitées.

Tesi sul tema "Annotations de données":

1

Alec, Céline. "Enrichissement et peuplement d’ontologie à partir de textes et de données du LOD : Application à l’annotation automatique de documents". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS228/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite d'une approche, guidée par une ontologie, conçue pour annoter les documents d'un corpus où chaque document décrit une entité de même type. Dans notre contexte, l'ensemble des documents doit être annoté avec des concepts qui sont en général trop spécifiques pour être explicitement mentionnés dans les textes. De plus, les concepts d'annotation ne sont représentés au départ que par leur nom, sans qu'aucune information sémantique ne leur soit reliée. Enfin, les caractéristiques des entités décrites dans les documents sont incomplètes. Pour accomplir ce processus particulier d'annotation de documents, nous proposons une approche nommée SAUPODOC (Semantic Annotation Using Population of Ontology and Definitions of Concepts) qui combine plusieurs tâches pour (1) peupler et (2) enrichir une ontologie de domaine. La phase de peuplement (1) ajoute dans l'ontologie des informations provenant des documents du corpus mais aussi du Web des données (Linked Open Data ou LOD). Le LOD représente aujourd'hui une source prometteuse pour de très nombreuses applications du Web sémantique à condition toutefois de développer des techniques adaptées d'acquisition de données. Dans le cadre de SAUPODOC, le peuplement de l'ontologie doit tenir compte de la diversité des données présentes dans le LOD : propriétés multiples, équivalentes, multi-valuées ou absentes. Les correspondances à établir, entre le vocabulaire de l'ontologie à peupler et celui du LOD, étant complexes, nous proposons un modèle pour faciliter leur spécification. Puis, nous montrons comment ce modèle est utilisé pour générer automatiquement des requêtes SPARQL et ainsi faciliter l'interrogation du LOD et le peuplement de l'ontologie. Celle-ci, une fois peuplée, est ensuite enrichie(2) avec les concepts d'annotation et leurs définitions qui sont apprises grâce à des exemples de documents annotés. Un raisonnement sur ces définitions permet enfin d'obtenir les annotations souhaitées. Des expérimentations ont été menées dans deux domaines d'application, et les résultats, comparés aux annotations obtenues avec des classifieurs, montrent l'intérêt de l'approche
This thesis deals with an approach, guided by an ontology, designed to annotate documents from a corpus where each document describes an entity of the same type. In our context, all documents have to be annotated with concepts that are usually too specific to be explicitly mentioned in the texts. In addition, the annotation concepts are represented initially only by their name, without any semantic information connected to them. Finally, the characteristics of the entities described in the documents are incomplete. To accomplish this particular process of annotation of documents, we propose an approach called SAUPODOC (Semantic Annotation of Population Using Ontology and Definitions of Concepts) which combines several tasks to (1) populate and (2) enrich a domain ontology. The population step (1) adds to the ontology information from the documents in the corpus but also from the Web of Data (Linked Open Data or LOD). The LOD represents today a promising source for many applications of the Semantic Web, provided that appropriate techniques of data acquisition are developed. In the settings of SAUPODOC, the ontology population has to take into account the diversity of the data in the LOD: multiple, equivalent, multi-valued or absent properties. The correspondences to be established, between the vocabulary of the ontology to be populated and that of the LOD, are complex, thus we propose a model to facilitate their specification. Then, we show how this model is used to automatically generate SPARQL queries and facilitate the interrogation of the LOD and the population of the ontology. The latter, once populated, is then enriched (2) with the annotation concepts and definitions that are learned through examples of annotated documents. Reasoning on these definitions finally provides the desired annotations. Experiments have been conducted in two areas of application, and the results, compared with the annotations obtained with classifiers, show the interest of the approach
2

Liu, Jixiong. "Semantic Annotations for Tabular Data Using Embeddings : Application to Datasets Indexing and Table Augmentation". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS529.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec le développement de l'Open Data, un grand nombre de sources de données sont mises à disposition des communautés (notamment les data scientists et les data analysts). Ces données constituent des sources importantes pour les services numériques sous réserve que les données soient nettoyées, non biaisées, et combinées à une sémantique explicite et compréhensible par les algorithmes afin de favoriser leur exploitation. En particulier, les sources de données structurées (CSV, JSON, XML, etc.) constituent la matière première de nombreux processus de science des données. Cependant, ces données proviennent de différents domaines pour lesquels l'expertise des consommateurs des données peut être limitée (knowledge gap). Ainsi, l'appropriation des données, étape critique pour la création de modèles d'apprentissage automatique de qualité, peut être complexe.Les modèles sémantiques (en particulier, les ontologies) permettent de représenter explicitement le sens des données en spécifiant les concepts et les relations présents dans les données. L'association d'étiquettes sémantiques aux ensembles de données facilite la compréhension et la réutilisation des données en fournissant une documentation sur les données qui peut être facilement utilisée par un non-expert. De plus, l'annotation sémantique ouvre la voie à des modes de recherche qui vont au-delà de simples mots-clés et permettent l'expression de requêtes d'un haut niveau conceptuel sur le contenu des jeux de données mais aussi leur structure tout en surmontant les problèmes d'hétérogénéité syntaxique rencontrés dans les données tabulaires. Cette thèse introduit un pipeline complet pour l'extraction, l'interprétation et les applications de tableaux de données à l'aide de graphes de connaissances. Nous rappelons tout d'abord la définition des tableaux du point de vue de leur interprétation et nous développons des systèmes de collecte et d'extraction de tableaux sur le Web et dans des fichiers locaux. Nous proposons ensuite trois systèmes d'interprétation de tableaux basés sur des règles heuristiques ou sur des modèles de représentation de graphes, afin de relever les défis observés dans la littérature. Enfin, nous présentons et évaluons deux applications d'augmentation des tables tirant parti des annotations sémantiques produites: l'imputation des données et l'augmentation des schémas
With the development of Open Data, a large number of data sources are made available to communities (including data scientists and data analysts). This data is the treasure of digital services as long as data is cleaned, unbiased, as well as combined with explicit and machine-processable semantics in order to foster exploitation. In particular, structured data sources (CSV, JSON, XML, etc.) are the raw material for many data science processes. However, this data derives from different domains for which consumers are not always familiar with (knowledge gap), which complicates their appropriation, while this is a critical step in creating machine learning models. Semantic models (in particular, ontologies) make it possible to explicitly represent the implicit meaning of data by specifying the concepts and relationships present in the data. The provision of semantic labels on datasets facilitates the understanding and reuse of data by providing documentation on the data that can be easily used by a non-expert. Moreover, semantic annotation opens the way to search modes that go beyond simple keywords and allow the use of queries of a high conceptual level on the content of the datasets but also their structure while overcoming the problems of syntactic heterogeneity encountered in tabular data. This thesis introduces a complete pipeline for the extraction, interpretation, and applications of tables in the wild with the help of knowledge graphs. We first refresh the exiting definition of tables from the perspective of table interpretation and develop systems for collecting and extracting tables on the Web and local files. Three table interpretation systems are further proposed based on either heuristic rules or graph representation models facing the challenges observed from the literature. Finally, we introduce and evaluate two table augmentation applications based on semantic annotations, namely data imputation and schema augmentation
3

Lutz, Quentin. "Graph-based contributions to machine-learning". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un graphe est un objet mathématique permettant de représenter des relations entre des entités (appelées nœuds) sous forme d’arêtes. Les graphes sont depuis longtemps un objet d’étude pour différents problèmes allant d’Euler au PageRank en passant par les problèmes de plus courts chemins. Les graphes ont plus récemment trouvé des usages pour l’apprentissage automatique.Avec l’avènement des réseaux sociaux et du web, de plus en plus de données sont représentées sous forme de graphes. Ces graphes sont toujours plus gros, pouvant contenir des milliards de nœuds et arêtes. La conception d’algorithmes efficaces s’avère nécessaire pour permettre l’analyse de ces données. Cette thèse étudie l’état de l’art et propose de nouveaux algorithmes pour la recherche de communautés et le plongement de nœuds dans des données massives. Par ailleurs, pour faciliter la manipulation de grands graphes et leur appliquer les techniques étudiées, nous proposons Scikit-network, une librairie libre développée en Python dans le cadre de la thèse. De nombreuses tâches, telles que le calcul de centralités et la classification de nœuds, peuvent être accomplies à l’aide de Scikit-network.Nous nous intéressons également au problème d’annotation de données. Les techniques supervisées d’apprentissage automatique nécessitent des données annotées pour leur entrainement. La qualité de ces données influence directement la qualité des prédictions de ces techniques une fois entrainées. Cependant, obtenir ces données ne peut pas se faire uniquement à l’aide de machines et requiert une intervention humaine. Nous étudions le problème d’annotation, sous un formalisme utilisant des graphes, avec pour but de décrire les solutions qui limitent cette intervention de façon optimale. Nous caractérisons ces solutions et illustrons comment elles peuvent être appliquées
A graph is a mathematical object that makes it possible to represent relationships (called edges) between entities (called nodes). Graphs have long been a focal point in a number of problems ranging from work by Euler to PageRank and shortest-path problems. In more recent times, graphs have been used for machine learning.With the advent of social networks and the world-wide web, more and more datasets can be represented using graphs. Those graphs are ever bigger, sometimes with billions of edges and billions of nodes. Designing efficient algorithms for analyzing those datasets has thus proven necessary. This thesis reviews the state of the art and introduces new algorithms for the clustering and the embedding of the nodes of massive graphs. Furthermore, in order to facilitate the handling of large graphs and to apply the techniques under study, we introduce Scikit-network, a free and open-source Python library which was developed during the thesis. Many tasks, such as the classification or the ranking of the nodes using centrality measures, can be carried out thanks to Scikit-network.We also tackle the problem of labeling data. Supervised machine learning techniques require labeled data to be trained. The quality of this labeled data has a heavy influence on the quality of the predictions of those techniques once trained. However, building this data cannot be achieved through the sole use of machines and requires human intervention. We study the data labeling problem in a graph-based setting, and we aim at describing the solutions that require as little human intervention as possible. We characterize those solutions and illustrate how they can be applied in real use-cases
4

Savonnet, Marinette. "Systèmes d'Information Scientifique : des modèles conceptuels aux annotations sémantiques Application au domaine de l'archéologie et des sciences du vivant". Habilitation à diriger des recherches, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00917782.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les Systèmes d'Information Scientifique (SIS) sont des Systèmes d'Information (SI) dont le but est de produire de la connaissance et non pas de gérer ou contrôler une activité de production de biens ou de services comme les SI d'entreprise. Les SIS se caractérisent par des domaines de recherche fortement collaboratifs impliquant des équipes pluridisciplinaires et le plus souvent géographiquement éloignées, ils manipulent des données aux structures très variables dans le temps qui vont au-delà de la simple hétérogénéité : nuages de points issus de scanner 3D, modèles numériques de terrain, cartographie, publications, données issues de spectromètre de masse ou de technique de thermoluminescence, données attributaires en très grand volume, etc. Ainsi, contrairement aux bases de données d'entreprise qui sont modélisées avec des structures établies par l'activité qu'elles supportent, les données scientifiques ne peuvent pas se contenter de schémas de données pré-definis puisque la structure des données évolue rapidement de concert avec l'évolution de la connaissance. La gestion de données scientifiques nécessite une architecture de SIS ayant un niveau d'extensibilité plus élevé que dans un SI d'entreprise. Afin de supporter l'extensibilité tout en contrôlant la qualité des données mais aussi l'interopérabilité, nous proposons une architecture de SIS reposant sur : - des données référentielles fortement structurées, identifiables lors de la phase d'analyse et amenées à évoluer rarement ; - des données complémentaires multi-modèles (matricielles, cartographiques, nuages de points 3D, documentaires, etc.). Pour établir les liens entre les données complémentaires et les données référentielles, nous avons utilisé un unique paradigme, l'annotation sémantique. Nous avons proposé un modèle formel d'annotation à base ontologique pour construire des annotations sémantiques dont la cohérence et la consistance peuvent être contrôlées par une ontologie et des règles. Dans ce cadre, les annotations offrent ainsi une contextualisation des données qui permet de vérifier leur cohérence, par rapport à la connaissance du domaine. Nous avons dressé les grandes lignes d'une sémantique du processus d'annotation par analogie avec la sémantique des langages de programmation. Nous avons validé notre proposition, à travers deux collaborations pluridisciplinaires : - le projet ANR CARE (Corpus Architecturae Religiosae Europeae - IV-X saec. ANR-07- CORP-011) dans le domaine de l'archéologie. Son objectif était de développer un corpus numérique de documents multimédia sur l'évolution des monuments religieux du IVe au XIe siècle (http://care.tge-adonis.fr). Un assistant d'annotation a été développé pour assurer la qualité des annotations par rapport à la connaissance représentée dans l'ontologie. Ce projet a donné lieu au développement d'une extension sémantique pour MediaWiki ; - le projet eClims dans le domaine de la protéomique clinique. eClims est un composant clinique d'un LIMS (Laboratory Information Management System) développé pour la plate-forme de protéomique CLIPP. eClims met en oeuvre un outil d'intégration basé sur le couplage entre des modèles représentant les sources et le système protéomique, et des ontologies utilisées comme médiatrices entre ces derniers. Les différents contrôles que nous mettons en place garantissent la validité des domaines de valeurs, la complétude, la consistance des données et leur cohérence. Le stockage des annotations est assuré par une Base de Données orientées colonnes associée à une Base de Données relationnelles.
5

Mefteh, Wafa. "Approche ontologique pour la modélisation et le raisonnement sur les trajectoires : prise en compte des aspects thématiques, temporels et spatiaux". Thesis, La Rochelle, 2013. http://www.theses.fr/2013LAROS405/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’évolution des systèmes de capture des données concernant les objets mobiles a donné naissance à de nouvelles générations d’applications dans différents domaines. Les données capturées, communément appelées « trajectoires », sont au cœur des applications qui analysent et supervisent le trafic routier, maritime et aérien ou également celles qui optimisent le transport public. Elles sont aussi exploitées dans les domaines du jeu vidéo, du cinéma, du sport et dans le domaine de la biologie animale pour l’étude des comportements, par les systèmes de capture des mouvements. Aujourd’hui, les données produites par ces capteurs sont des données brutes à caractère spatio-temporel qui cachent des informations sémantiquement riches et enrichissantes pour un expert. L’objectif de cette thèse est d’associer automatiquement aux données spatio-temporelles des descriptions ou des concepts liés au comportement des objets mobiles, interprétables par les humains, mais surtout par les machines. Partant de ce constat, nous proposons un processus partant de l’expérience des objets mobiles de monde réel, notamment le bateau et l’avion, vers un modèle ontologique générique pour la trajectoire. Nous présentons quelques requêtes qui intéressent les experts du domaine et qui montrent l’impossibilité d’exploiter les trajectoires dans leurs états bruts. En effet, l’analyse de ces requêtes fait ressortir trois types de composantes sémantiques : thématique, spatiale et temporelle. Ces composantes doivent être rattachées aux données des trajectoires ce qui conduit à introduire un processus d’annotation qui transforme les trajectoires brutes en trajectoires sémantiques. Pour exploiter les trajectoires sémantiques, on construit une ontologie de haut niveau pour le domaine de la trajectoire qui modélise les données brutes et leurs annotations. Vu le besoin d’un raisonnement complet avec des concepts et des opérateurs spatiaux et temporaux, nous proposons la solution de réutilisation des ontologies de temps et d’espace. Dans cette thèse, nous présentons aussi notre travail issu d’une collaboration avec une équipe de recherche qui s’intéresse à l’analyse et à la compréhension des comportements des mammifères marins dans leur milieu naturel. Nous détaillons le processus utilisé dans les deux premiers domaines, qui part des données brutes représentant les déplacements des phoques jusqu’au modèle ontologique de trajectoire des phoques. Nous accordons une attention particulière à l’apport de l’ontologie de haut niveau définissant un cadre contextuel pour l’ontologie du domaine d’application. Enfin, cette thèse présente la difficulté de mise en œuvre sur des données de taille réelle (des centaines de milliers d’individus) lors du raisonnement à travers les mécanismes d’inférence utilisant des règles métiers
The evolution of systems capture data on moving objects has given birth to new generations of applications in various fields. Captured data, commonly called ”trajectories”, are at the heart of applications that analyze and monitor road, maritime and air traffic or also those that optimize public transport. They are also used in the video game, movies, sports and field biology to study animal behavior, by motion capture systems. Today, the data produced by these sensors are raw spatio-temporal characters hiding semantically rich and meaningful informations to an expert data. So, the objective of this thesis is to automatically associate the spatio-temporal data descriptions or concepts related to the behavior of moving objects, interpreted by humans, but also by machines. Based on this observation, we propose a process based on the experience of real-world moving objects, including vessel and plane, to an ontological model for the generic path. We present some applications of interest to experts in the field and show the inability to use the paths in their raw state. Indeed, the analysis of these queries identified three types of semantic components : thematic, spatial and temporal. These components must be attached to data paths leading to enter an annotation that transforms raw semantic paths process trajectories. To exploit the semantic trajectories, we construct a high-level ontology for the domain of the path which models the raw data and their annotations. Given the need of complete reasoning with concepts and spatial and temporal operators, we propose the solution for reuse of ontologies time space. In this thesis, we also present our results from a collaboration with a research team that focuses on the analysis and understanding of the behavior of marine mammals in their natural environment. We describe the process used in the first two areas, which share raw data representing the movement of seals to ontological trajectory model seals. We pay particular attention to the contribution of the upper ontology defined in a contextual framework for ontology application. Finally, this thesis presents the difficulty of implementation on real data size (hundreds of thousands) when reasoning through inference mechanisms using business rules
6

Tran, Hoang Tung. "Automatic tag correction in videos : an approach based on frequent pattern mining". Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4028/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons dans cette thèse un système de correction automatique d'annotations (tags) fournies par des utilisateurs qui téléversent des vidéos sur des sites de partage de documents multimédia sur Internet. La plupart des systèmes d'annotation automatique existants se servent principalement de l'information textuelle fournie en plus de la vidéo par les utilisateurs et apprennent un grand nombre de "classifieurs" pour étiqueter une nouvelle vidéo. Cependant, les annotations fournies par les utilisateurs sont souvent incomplètes et incorrectes. En effet, un utilisateur peut vouloir augmenter artificiellement le nombre de "vues" d'une vidéo en rajoutant des tags non pertinents. Dans cette thèse, nous limitons l'utilisation de cette information textuelle contestable et nous n'apprenons pas de modèle pour propager des annotations entre vidéos. Nous proposons de comparer directement le contenu visuel des vidéos par différents ensembles d'attributs comme les sacs de mots visuels basés sur des descripteurs SIFT ou des motifs fréquents construits à partir de ces sacs. Nous proposons ensuite une stratégie originale de correction des annotations basées sur la fréquence des annotations des vidéos visuellement proches de la vidéo que nous cherchons à corriger. Nous avons également proposé des stratégies d'évaluation et des jeux de données pour évaluer notre approche. Nos expériences montrent que notre système peut effectivement améliorer la qualité des annotations fournies et que les motifs fréquents construits à partir des sacs de motifs fréquents sont des attributs visuels pertinents
This thesis presents a new system for video auto tagging which aims at correcting the tags provided by users for videos uploaded on the Internet. Most existing auto-tagging systems rely mainly on the textual information and learn a great number of classifiers (on per possible tag) to tag new videos. However, the existing user-provided video annotations are often incorrect and incomplete. Indeed, users uploading videos might often want to rapidly increase their video’s number-of-view by tagging them with popular tags which are irrelevant to the video. They can also forget an obvious tag which might greatly help an indexing process. In this thesis, we limit the use this questionable textual information and do not build a supervised model to perform the tag propagation. We propose to compare directly the visual content of the videos described by different sets of features such as SIFT-based Bag-Of-visual-Words or frequent patterns built from them. We then propose an original tag correction strategy based on the frequency of the tags in the visual neighborhood of the videos. We have also introduced a number of strategies and datasets to evaluate our system. The experiments show that our method can effectively improve the existing tags and that frequent patterns build from Bag-Of-visual-Words are useful to construct accurate visual features
7

Kellou-Menouer, Kenza. "Découverte de schéma pour les données du Web sémantique". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV047/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un nombre croissant de sources de données interconnectées sont publiées sur le Web. Cependant, leur schéma peut êtreincomplet ou absent. De plus, les données ne sont pas nécessairement conformes au schéma déclaré. Ce qui rend leur exploitation complexe. Dans cette thèse, nous proposons une approche d’extraction automatique et incrémentale du schéma d’une source à partir de la structure implicite de ses données. Afin decompléter la description des types découverts, nous proposons également une approche de découverte des patterns structurels d’un type. L’approche procède en ligne sans avoir à télécharger ou à parcourir la source. Ce quipeut être coûteux voire impossible car les sources sont interrogées à distance et peuvent imposer des contraintes d’accès, notamment en termes de temps ou de nombre de requêtes. Nous avons abordé le problème de l’annotationafin de trouver pour chaque type un ensemble de labels permettant de rendre compte de sonsens. Nous avons proposé des algorithmes d’annotation qui retrouvent le sens d’un type en utilisant des sources de données de références. Cette approche s’applique aussi bien pour trouver des noms pertinents pour les typesdécouverts que pour enrichir la description des types existants. Enfin, nous nous sommes intéressés à caractériser la conformité entre les données d’une source et le schéma qui les décrit. Nous avons proposé une approche pour l'analyse et l'amélioration de cette conformité et nous avons proposé des facteurs de qualité, les métriques associées, ainsi qu'une extension du schéma permettant de refléter l'hétérogénéité entre les instances d'un type
An increasing number of linked data sources are published on the Web. However, their schema may be incomplete or missing. In addition, data do not necessarily follow their schema. This flexibility for describing the data eases their evolution, but makes their exploitation more complex. In our work, we have proposed an automatic and incremental approach enabling schema discovery from the implicit structure of the data. To complement the description of the types in a schema, we have also proposed an approach for finding the possible versions (patterns) for each of them. It proceeds online without having to download or browse the source. This can be expensive or even impossible because the sources may have some access limitations, either on the query execution time, or on the number of queries.We have also addressed the problem of annotating the types in a schema, which consists in finding a set of labels capturing their meaning. We have proposed annotation algorithms which provide meaningful labels using external knowledge bases. Our approach can be used to find meaningful type labels during schema discovery, and also to enrichthe description of existing types.Finally, we have proposed an approach to evaluate the gap between a data source and itsschema. To this end, we have proposed a setof quality factors and the associated metrics, aswell as a schema extension allowing to reflect the heterogeneity among instances of the sametype. Both factors and schema extension are used to analyze and improve the conformity between a schema and the instances it describes
8

Paganini, Julien. "L'analyse de données génomiques et l'annotation à l'heure des NGS : la bioinformatique 2.0". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4105.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les récents progrès technologiques en termes de séquençage de données génomiques ont entraîné une forte croissance des données disponibles et l'apparition de nouveaux besoins. Initialement limitée à l'analyse de petite quantité de données, la bioinformatique a dû s'adapter à ce nouveau contexte technologique et scientifique afin de répondre aux nouveaux challenges proposés. Par l'intermédiaire de différents projets réalisés dans des contextes différents, cette thèse s'intègre dans ce changement contextuel où la bioinfomatique n'est plus limitée à l'utilisation successive d'outils à objectifs unitaire entrecoupée d'étapes humaine dépendantes. Focalisés sur le développement de stratégies d'analyse complexes pour le développement ou la mise à disposition d'outils entièrement automatisés et la production de données à haute valeur ajoutée, ces travaux permettent de comprendre le rôle important de la bioinformatique 2.0. Ainsi nous montrerons comment elle doit être à même de répondre à des objectifs précis par l'intermédiaire de stratégies intégrant les concepts de la biologie, les outils bioinformatiques existants et l'expertise humaine associée au domaine. En conclusion nous discuterons du nouveau rôle et de l'impact futur de la bioinformatique 2.0 qui requiert une expertise tant sur le plan biologique qu'informatique adaptée aux données NGS
Recent technological advances in terms of genomic sequencing data led to a strong growth of available data and the emergence of new needs. Initially limited to the analysis of simple sequence or limited amount of data, bioinformatics has to adapt to this new technological and scientific context to meet the new challenges offered. Through different projects in different genomic era, this thesis fits into this contexts change where bioinfomatics is no longer limited to the use of tool with unitary goal and human dependent steps. Focused on the development of complex analysis strategies for the development or the availability of fully automated tools and high-value data, this work introduce the important role of bioinformatics version 2.0. We will show how it is able to answer to precise biological question through specific strategy that integrate all the biological concepts, existing bioinformatics tools and human expertise related to the domain. To conclude, we discuss about the role and the impact of the bioinformatics 2.0 that requires a expert vision at biological and computers level adapted to NGS data
9

Reverdy, Clément. "Annotation et synthèse basée données des expressions faciales de la Langue des Signes Française". Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS550.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Langue des Signes Française (LSF) représente une part de l'identité et de la culture de la communauté des sourds en France. L'un des moyens permettant de promouvoir cette langue est la génération de contenu par le biais de personnages virtuels appelés avatars signeurs. Le système que nous proposons s’intègre dans un projet plus général de synthèse gestuelle de la LSF par concaténation qui permet de générer de nouvelles phrases à partir d'un corpus de données de mouvements annotées et capturées via un dispositif de capture de mouvement basé marqueurs (MoCap) en éditant les données existantes. En LSF, l'expressivité faciale est le vecteur de nombreuses informations (e.g., affectives, clausales ou adjectivales), d'où son importance. Cette thèse a pour but d'intégrer l'aspect facial de la LSF au système de synthèse concaténative décrit précédemment. Ainsi, nous proposons une chaîne de traitement de l'information allant de la capture des données via un dispositif de MoCap jusqu'à l'animation faciale de l'avatar à partir de ces données et l'annotation automatique des corpus ainsi constitués. La première contribution de cette thèse concerne la méthodologie employée et la représentation par blendshapes à la fois pour la synthèse d'animations faciales et pour l'annotation automatique. Elle permet de traiter le système d'analyse / synthèse à un certain niveau d'abstraction, avec des descripteurs homogènes et signifiants. La seconde contribution concerne le développement d'une approche d'annotation automatique qui s'appuie sur la reconnaissance d'expressions faciales émotionnelles par des techniques d'apprentissage automatique. La dernière contribution réside dans la méthode de synthèse qui s'exprime comme un problème d'optimisation assez classique mais au sein duquel nous avons inclus une énergie basée laplacien quantifiant les déformations d'une surface en tant qu'énergie de régularisation
French Sign Language (LSF) represents part of the identity and culture of the deaf community in France. One way to promote this language is to generate signed content through virtual characters called signing avatars. The system we propose is part of a more general project of gestural synthesis of LSF by concatenation that allows to generate new sentences from a corpus of annotated motion data captured via a marker-based motion capture device (MoCap) by editing existing data. In LSF, facial expressivity is particularly important since it is the vector of numerous information (e.g., affective, clausal or adjectival). This thesis aims to integrate the facial aspect of LSF into the concatenative synthesis system described above. Thus, a processing pipeline is proposed, from data capture via a MoCap device to facial animation of the avatar from these data and to automatic annotation of the corpus thus constituted. The first contribution of this thesis concerns the employed methodology and the representation by blendshapes both for the synthesis of facial animations and for automatic annotation. It enables the analysis/synthesis scheme to be processed at an abstract level, with homogeneous and meaningful descriptors. The second contribution concerns the development of an automatic annotation method based on the recognition of expressive facial expressions using machine learning techniques. The last contribution lies in the synthesis method, which is expressed as a rather classic optimization problem but in which we have included
10

Casallas-Gutiérrez, Rubby. "Objets historiques et annotations pour les environnements logiciels". Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004982.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un environnement guidé par les procédés de fabrication de logiciel (EGPFL), la gestion de l'information est un problème complexe qui doit concilier deux besoins: gérer le produit logiciel et gérer les procédés de fabrication. Outre la grande quantité d'entités diverses et fortement interdépendantes, la gestion du produit doit prendre en compte l'aspect évolutif et les facteurs de variation du logiciel, ainsi que la nature coopérative des activités de fabrication des logiciels. La gestion des procédés recouvre la modélisation, l'exécution, l'évaluation et la supervision des procédés. Diverses informations doivent alors être prises en compte: la trace d'exécution des procédés, les événements survenus dans l'environnement et les mesures de qualité. Nous proposons les objets historiques annotés pour gérer l'information d'un EGPFL. L'objet historique constitue la notion de base d'un modèle à objets historique permettant de représenter à la fois les entités logicielles et leur évolution. La notion d'annotation vient, quant à elle, enrichir ce modèle pour permettre d'introduire des informations qui dénotent des faits (notes, mesures, observations, etc) pouvant être ponctuellement associés aux entités de l'EGPFL. Un langage de requêtes est défini afin d'accéder aux différentes informations. Grâce à ce langage, l'EGPFL dispose d'un service puissant pour rassembler, à partir de la base d'objets, les diverses informations nécessaires à l'évaluation et au contrôle des procédés de fabrication. Nous proposons également d'exploiter les possibilités offertes par notre modèle pour définir des événements et, éventuellement, en conserver un historique. Les événements permettent d'identifier des situations liant des informations provenant aussi bien de l'état courant que des états passés de l'EGPFL. C'est pourquoi la définition d'un événement peut comporter des conditions exprimées dans le langage de requêtes. L'emploi d'annotations permet d'enregistrer les occurences d'événements, ainsi qu'une partie de l'état du système. Une implantation du modèle est proposée dans le système Adèle

Libri sul tema "Annotations de données":

1

Courts, Belgium, e Belgium. Code Pénal Belge Appliqué: Ou, l'interprétation Donnée À Ce Code Par la Jurisprudence des Cours et Tribunaux, Avec Renvois Aux Travaux Préparatoires, la Doctrine Belge et Française, et de Nombreuses Annotations. Creative Media Partners, LLC, 2022.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Courts, Belgium, e Belgium. Code Pénal Belge Appliqué: Ou, l'interprétation Donnée À Ce Code Par la Jurisprudence des Cours et Tribunaux, Avec Renvois Aux Travaux Préparatoires, la Doctrine Belge et Française, et de Nombreuses Annotations. Creative Media Partners, LLC, 2022.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Courts, Belgium, e Belgium. Code Pénal Belge Appliqué: Ou, l'interprétation Donnée À Ce Code Par la Jurisprudence des Cours et Tribunaux, Avec Renvois Aux Travaux Préparatoires, la Doctrine Belge et Française, et de Nombreuses Annotations. Creative Media Partners, LLC, 2018.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Annotations de données":

1

Van Dijk, Suzan. "Partager et faire connaître l’héritage littéraire féminin". In Le Crowdsourcing, 185–96. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3918.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Isabelle de Charrière (Belle de Zuylen, 1740-1805), classée en tête du « canon littéraire d’Utrecht », fait partie de l’héritage culturel néerlandais, malgré le fait qu’elle écrivait et publiait en français. La numérisation de sa correspondance était une initiative de l’Association Isabelle de Charrière, réalisée dans le contexte de l’Institut Huygens d’Histoire des Pays-Bas (Amsterdam). Sous la direction de Madeleine van Strien-Chardonneau et de Suzan van Dijk, avec l’aide de Maria Schouten, un petit groupe de membres de cette Association s’est chargé de ce travail. Ils ont procédé au scannage des transcriptions (2552 lettres) contenues dans les six premiers volumes des Œuvres complètes, à l’OCR, puis à la transcription des textes, avec la modernisation de l’orthographe. Ils ont ajouté des métadonnées, et commencé à préparer des annotations explicatives, qui devraient rendre les textes accessibles à une audience plus large. Ces premiers travaux permettent déjà de procéder à un certain nombre de recherches sur des aspects précis des lettres et des correspondants grâce à la recherche par mots-clés. Pour faciliter l’étude ponctuelle de ce corpus, l’étape suivante est l’étiquetage d’éléments/passages pertinents par rapport à la personnalité de l’auteure et de ses préoccupations. Cet étiquetage servirait d’annotations dans le texte, et de catégories dans les bases de données comme le NEWW VRE, qui s’appuient sur des sources comme le sont ces correspondances privées – selon le principe qui avait été présenté en 2014 au colloque Digital Humanities de Lausanne.
2

Anglo, Sydney. "More Machiavellian than Machiavel: The Jesuits and the Context of Donne’s Conclave". In Machiavelli–The First Century, 374–414. Oxford University PressOxford, 2005. http://dx.doi.org/10.1093/oso/9780199267767.003.0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract In 1611, when John Donne published Ignatius His Conclave, the Society of Jesus had been going strong for more than seventy years; and the literature concerning its virtues and vices, achievements and crimes, had swollen to a monstrous bulk. Indeed, eight years earlier Thomas Bell–whose ‘doleful knell’ was subsequently tolled by the Jesuit Robert Parsons had already complained that the works produced merely in one area of controversy, relating to the activities of the Society in England alone, were so numerous that ‘to read all the said books is a labour both tedious and painefull. To buy them is too chargeable for manie. To understand them, as they are confusely published, is a thing not easie for the greater part. I cannot, like Bell, confidently promise that the ‘defect herein, my annotations and compendious observations will supplie’: but I hope that an examination of Donne’s Conclave within what might be termed its penumbra of ideas may not only help towards our understanding of the pamphlet itself but may also illuminate the nature of contemporary attitudes towards Machiavelli and the farreaching, but often implicit effects, of Gentillet’s work.
3

Grailles, Bénédicte. "L’ethos participatif". In Le Crowdsourcing, 59–74. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3912.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les passionnés d’histoire familiale sont des acteurs centraux du crowdsourcing archivistique. Cette communauté d’utilisateurs, bien organisée dans le monde réel et déjà productrice de contenus sous forme de tables et de bases de données, a investi le numérique sans état d’âme pour occuper un espace central dans l’écosystème archivistique. Ces usagers consommateurs de nombreux documents d’archives, sont prêts à s’investir dans tout type d’usages participatifs, l’exemple le plus frappant étant l’indexation collaborative. Ils enrichissent et partagent des contenus patrimoniaux via le cadre institutionnel et en dehors de lui. En dehors des services, ils créent des communautés apprenantes en ligne qui forment des espaces sociaux d’échange hautement spécialisés (Geneanet par exemple), où se déploient leurs pratiques propres : redocumentarisation des documents (réagencement, annotation, organisation de collections personnelles, intégration de liens etc.) et production de documents totalement factices – les «fiches» manquantes du fichier des morts pour la France mis en ligne par le service historique de la Défense par exemple. Après une analyse de l’offre de projets collaboratifs autour des documents d’archives, nous tenterons de mieux cerner le profil des généanautes et nous interrogerons sur l’éventualité d’un ethos spécifique du généalogiste et sur les conséquences à moyen terme dans la relation aux archives.
4

Bouyé, Edouard. "Le numérique participatif au service de la République des Lettres". In Le Crowdsourcing, 23–36. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3909.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Loin des clichés, l’inflation de la production documentaire a fait des archivistes les animateurs d’équipes nombreuses ; et la consultation des archives est l’une des pratiques culturelles les plus populaires. Cette rencontre d’un public motivé et d’une documentation numérique considérable a suscité le développement d’entreprises de crowdsourcing permises par la pratique des documents d’archives ainsi que par les connaissances toponymiques et onomastiques des usagers : édition de textes, annotation collaborative de l’état civil ou de fonds iconographiques, établissement de dictionnaires historiques, etc. Le rôle de l’archiviste est de rendre possible ce travail sur les sources, de l’encadrer, de le faire connaître (par la médiation numérique). Il faut susciter la création d’un réseau, d’une communauté virtuelle (en s’appuyant sur des communautés réelles) et donner de la reconnaissance à son travail. Le public attend de l’archiviste, qui doit se déprendre de la posture du sachant distillant son savoir, qu’il soit néanmoins être le garant de la fiabilité de l’information produite, même s’il n’a pas les moyens concrets de la valider systématiquement a priori. Diverses questions doivent être examinées : celle de la propriété intellectuelle de l’information produite, celle des rapports entre crowdsourcing et crowdfunding, celle des raisons et des conditions du succès des entreprises de crowdsourcing dans les archives, où chaque participant contribue à l’enrichissement du patrimoine commun.

Vai alla bibliografia