Academic literature on the topic 'Données source ouverte'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Données source ouverte.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Données source ouverte":

1

Ouerfelli, Tarek, and Joumana Boustany. "Bibliothèques publiques en Tunisie : développement des services, état des lieux et perspectives." I2D - Information, données & documents 2, no. 2 (November 30, 2023): 108–15. http://dx.doi.org/10.3917/i2d.232.0108.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article présente la réalité des bibliothèques publiques en Tunisie et les moyens de développer leurs services à un moment où elles font face à de nouveaux défis suscités par les progrès techniques considérables, tels que la généralisation des bases de données et des systèmes intégrés de gestion de bibliothèques, ainsi que la montée en puissance des systèmes libres en source ouverte. Dans un premier temps, nous donnons un aperçu de l’enseignement de la bibliothéconomie en Tunisie ; nous présentons le cadre juridique tunisien des bibliothèques publiques et leurs fonctions. Ensuite, nous exposons les problèmes auxquels elles sont confrontées. Enfin, nous formulons un ensemble de propositions afin de développer le secteur des bibliothèques publiques en Tunisie pour mieux répondre aux besoins des usagers.
2

Lee, Liza, Mireille Desroches, Shamir Mukhi, and Christina Bancej. "ActionGrippe : évaluation d’une application de surveillance du syndrome d’allure grippale à externalisation ouverte pour les saisons grippales canadiennes 2015–2016 à 2018–2019." Relevé des maladies transmissibles au Canada 47, no. 09 (September 10, 2021): 393–400. http://dx.doi.org/10.14745/ccdr.v47i09a02f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contexte : La surveillance sentinelle du syndrome d’allure grippale est une composante essentielle d’un programme exhaustif de surveillance de la grippe. Les systèmes de surveillance communautaires du syndrome d’allure grippale qui comptent uniquement sur des pratiques de soins de santé sentinelles omettent des segments importants de la population, notamment ceux qui ne consultent pas un médecin. La surveillance participative, qui compte sur la participation de la communauté à la surveillance, peut combler certaines lacunes des systèmes traditionnels de surveillance du syndrome d’allure grippale. Objectif : Nous avions pour objectif d’évaluer le programme ActionGrippe, une application de surveillance du syndrome d’allure grippale à externalisation ouverte développée pour compléter et apporter un complément à la surveillance du syndrome d’allure grippale au Canada. Méthodes : En utilisant les cadres établis pour les évaluations des données de surveillance, nous avons évalué l’acceptabilité, la fiabilité, l’exactitude et l’utilité du système ActionGrippe de 2015–2016 à 2018–2019. Les indicateurs d’évaluation ont été comparés aux indicateurs de surveillance nationale du syndrome d’allure grippale et des infections virales respiratoires confirmées en laboratoire. Résultats : L’acceptabilité du programme ActionGrippe a été démontrée par une croissance de 50 % à 100 % de la participation d’une saison à l’autre, et un taux de maintien constant de 80 % d’une saison à l’autre. La fiabilité était plus grande pour le programme ActionGrippe que pour notre système traditionnel de surveillance du syndrome d’allure grippale, bien que les deux systèmes aient enregistré des fluctuations d’une semaine à l’autre en ce qui concerne le nombre de participants ayant répondu. Les taux de syndrome d’allure grippale du programme ActionGrippe présentaient une corrélation modérée avec les taux de détection hebdomadaires de la grippe en laboratoire et d’autres détections de virus respiratoires saisonniers hivernaux, notamment le virus respiratoire syncytial et les coronavirus saisonniers. Enfin, le programme ActionGrippe a démontré son utilité en tant que source d’informations de base pour la surveillance du programme ÉpiGrippe et qu’il peut combler les lacunes de données dans les programmes actuels de surveillance et de contrôle de la grippe. Conclusion : Le programme ActionGrippe est un exemple de programme de surveillance participative numérique novateur qui a été créé pour remédier aux limites de la surveillance traditionnelle du syndrome d’allure grippale au Canada. Il répond aux critères d’évaluation du système de surveillance, qui sont l’acceptabilité, la fiabilité, l’exactitude et l’utilité.
3

Kalenga Tshingomba, Urcel, Magali Jouven, Lucile Sautot, Imad Shaqura, and Maguelone Teisseire. "Cartographie des surfaces pastorales à l’aide des données Sentinel 2 L3A et des données ouvertes." Revue Internationale de Géomatique 30, no. 3-4 (July 2020): 245–77. http://dx.doi.org/10.3166/rig.2021.00112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cet article, les auteurs expérimentent une démarche permettant de produire une cartographie cohérente de l’occupation des sols des surfaces des parcours en zones périméditerranéennes françaises représentées par les régions Occitanie et Provence-Alpes-Côte d’Azur. Quatre différentes sources de données sont utilisées : l’occupation des sols millésime OSO (OSO), le Registre parcellaire graphique (RPG), la BD-Forêt V.2.0 et les données satellites Sentinel 2 L3A. Le RPG de 2019 et la BD-Forêt actualisée en 2018 ont été utilisés comme principale source de données de référence pour l’entraînement des modèles en vue de classifier les objets OSO 2019 de faible F-score, après extraction des variables spectrales, et des indices spectraux et texturaux issus des données Sentinel 2 L3A. Trois différentes tailles de données de référence ont été constituées. Ensuite 6 modèles ont été entraînés en utilisant l’algorithme Random Forest (RF) dont 3 modèles à partir des 3 jeux de données, intégrant toutes les variables extraites (98) et 3 modèles en reprenant uniquement les variables importantes (30) définies par le RF. Les résultatsmontrent des précisions globales stables pour tous les jeux de données utilisés et produisent une meilleure discrimination de 3 classes sur 4 : les pelouses, les cultures pérennes et les forêts. Les landes ne sont pas bien discriminées à cause de leur forte hétérogénéité spatiale.
4

SHAQURA, Imad, and Jacques LASSEUR. "Caractérisation des Surfaces Pastorales en Région PACA par SIG et Télédétection: Questions de Méthodes et Premiers Résultats." Revue Française de Photogrammétrie et de Télédétection 225, no. 1 (March 16, 2023): 9–22. http://dx.doi.org/10.52638/rfpt.2023.427.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail consiste à caractériser l'espace pastoral de la région PACA en termes de distribution spatiale et de diversité des formations végétales concernées. Pour caractériser l'emprise spatiale des espaces pâturés nous avons analysé deux bases de données disponibles : le registre parcellaire graphique (RPG) issus des déclarations des agriculteurs dans le cadre de la politique agricole commune et une enquête pastorale (EP) réalisée à l'échelle des régions Provence Alpes Côte d'azur et Rhône Alpes. Nous avons ensuite caractérisé l'occupation du sol par télédétection en distinguant 5 clases de milieux (forêts, landes fermées, landes ouvertes, pelouses, sol nu) à l'échelle d'un géoterroir test de la région (Haut Verdon Annot-Saint André). Nos résultats montrent de fortes divergences entre les données issues des RPG et EP et montrent la pertinence de la création d'une cartographie dédiée au pastoralisme par télédétection selon une approche orientée objet comme voie de caractérisation de l'occupation du sol des espaces naturels pâturés usuellement mal renseigné à cette échelle large. A l'échelle de ce géoterroir test, quelques soit la source de donnée de spatialisation une forte proportion de l'espace pastoral (60 %) est en question soit en regard des règles d'admissibilité de ces surfaces aux soutiens publics de la PAC (30 %) ou des perspectives à moyen terme d'accessibilité pour les animaux à une ressource pâturable du fait de la forte dynamique de fermeture des milieux (30 % des surfaces déclarées appartenant à la catégorie landes fermées).
5

Duquenne, Marianne, Joachim Schöpfel, Franck Dumeignil, and Hélène Prost. "bioéconomie en France. Une étude scientométrique." Partnership: The Canadian Journal of Library and Information Practice and Research 17, no. 1 (August 5, 2022): 1–30. http://dx.doi.org/10.21083/partnership.v17i1.6796.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre d’une recherche sur l’application des principes de la science ouverte au domaine de la bioéconomie, nous avons mené une étude scientométrique de la production scientifique de la France dans ce domaine, pour la période de 2015 à 2019. L’étude a permis d’identifier 1913 publications dans la base de données Scopus. Nous avons analysé ce corpus sous différents aspects : types et sources des documents, avec volumétrie et impact ; auteurs, organismes et établissements ; sources de financement ; degré d’internationalité et taux d’ouverture (libre accès). La discussion porte sur la terminologie et les sources d’une telle étude scientométrique, sur l’accessibilité des publications et sur la position de la France dans ce domaine. La conclusion propose quelques recommandations pour la conduite d’une étude similaire, notamment à destination des professionnels de l’information.
6

Gkadolou, Eleni, and Poulicos Prastacos. "Historical Cartographic Information for Cultural Heritage Applications in a Semantic Framework." Cartographica: The International Journal for Geographic Information and Geovisualization 56, no. 4 (December 1, 2021): 255–66. http://dx.doi.org/10.3138/cart-2021-0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cartes historiques constituent un outil précieux pour la recherche en histoire, puisqu’elles sont dépositaires de renseignements sur l’espace qui reflètent la littératie géographique, l’idéologie et les préoccupations géopolitiques de l’époque où elles ont été établies – renseignements qui souvent ne sont pas fournis par d’autres sources. Les cartes historiques sont aussi un élément fondamental des applications dédiées au patrimoine culturel et aux sciences humaines numériques puisqu’elles donnent, en tant que cartes de base, une image de l’espace historique sur laquelle sont projetées d’autres ressources et le nom des lieux historiques, ce qui permet d’organiser et de géocoder diverses informations. Les cartes historiques devraient être abordées selon une approche sémantique qui considère les modèles et les normes de données des différentes disciplines liées au patrimoine culturel et aux sciences humaines numériques. C’est dans cet esprit que notre recherche poursuit des travaux antérieurs consistant à élaborer un profil d’application pour documenter les cartes historiques à partir du modèle du CIDOC et créer une base de données annotée de cartes historiques. Ce profil tient compte des concepts définitionnels de la carte et de ses relations aux objets, aux personnes, aux évènements et aux processus culturels. En vue de rassembler ces données et de les visualiser, une application web a été conçue à partir d’Arches, plateforme logicielle à code source ouvert destinée à la gestion du patrimoine culturel et compatible à la fois avec les normes du CIDOC et celles de l’information géographique.
7

Prener, Christopher. "Digitizing and Visualizing Sketch Map Data: A Semi-Structured Approach to Qualitative GIS." Cartographica: The International Journal for Geographic Information and Geovisualization 56, no. 4 (December 1, 2021): 267–83. http://dx.doi.org/10.3138/cart-2020-0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aux côtés des approches qualitatives de cueillette des données, le croquis cartographique constitue un moyen intuitif de récolter les impressions de participants et de participantes sur l’espace et les lieux. Mais les données recueillies sont souvent difficiles à traiter, en particulier à numériser et à visualiser. Après une description de ces difficultés, cet article présente une approche « semi-structurée » de la cueillette, de la numérisation et de l’analyse des données en vue d’un croquis cartographique, ainsi qu’un progiciel à code source ouvert, QualMap, qui offre des outils de numérisation de ces données en langage de programmation R. Cette approche conserve les cartes de base précises employées dans d’autres travaux préparatoires à des croquis cartographiques. Pour aider à la numérisation et à l’analyse, elle leur surimpose toutefois une unité spatiale, déterminée par la chercheuse ou le chercheur. L’utilisation d’une unité spatiale normée ouvre encore d’autres possibilités de cartographie et d’analyse. L’applicabilité de cette approche est illustrée par un projet d’échantillonnage qui analyse les perceptions de l’espace recueillies auprès d’un échantillon de commodité formé d’étudiants et d’étudiantes de niveau collégial. Le groupement sur les cartes ainsi produites montre, autour du campus, une « bulle » qui rend compte de l’essentiel des déplacements hebdomadaires de la population étudiante. Ces données sont appariées à des données sur la criminalité, ce qui suggère la possibilité d’étendre par des méthodes mixtes cette approche « semi-structurée » du croquis cartographique.
8

Soh Tatcha, Charles. "Doublage cinématographique et audiovisuel : équivalence de son, équivalence de sens." Meta 54, no. 3 (October 16, 2009): 503–19. http://dx.doi.org/10.7202/038311ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé La notion d’équivalence en traduction a évolué au fil des années et des différentes théories. Dans les années 1950 et 1960, les travaux de Vinay et Darbelnet, de Nida, de Catford et d’autres ont ouvert la voie à des études comparatives du texte traduit et du texte source. Ce débat s’est poursuivi dans les années 1970, notamment avec la contribution de la théorie interprétative de la traduction de Lederer qui a souligné l’apport du bagage encyclopédique du traducteur et l’intégration des données extralinguistiques en contexte pour la production d’un texte équivalent à l’original. Aujourd’hui, ce débat a lieu dans l’arène de la traduction audiovisuelle. Le présent article explore l’équivalence dans la pratique du doublage cinématographique et audiovisuel. Nous référant essentiellement à deux grandes productions à succès, Gone with the Wind, de David Selznick (pour le cinéma), et All Saints, une série télévisuelle réalisée par l’Australien Julian Pringle, nous montrons qu’en doublage cinématographique et audiovisuel, par opposition à la traduction écrite, une version doublée équivalant à la version originale dépend d’une entité complexe, l’image et le son. La traduction est soumise à des contraintes d’une nature spécifique, en ce sens que le doublage s’emploie à fournir des équivalences sur deux plans, celui du sens et du son, tout en respectant le synchronisme phonétique, syntaxique et artistique.
9

Charest, Paul. "Le peuplement permanent de la Basse-Côte-Nord du Saint-Laurent : 1820-1900." Articles 11, no. 1-2 (April 12, 2005): 59–89. http://dx.doi.org/10.7202/055480ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail retrace l'histoire de la sédentarisation des communautés de la Basse-Côte-Nord du Saint-Laurent (ou Labrador québécois) qui s'échelonnent de Kégashka à Blanc-Sablon. Quelques auteurs (Huard, Rochette, Rouillard, Blanchard, Bussière) ont abordé cette question dans leurs écrits mais de façon incomplète et sans cette perspective globale qui est la nôtre. II convient d'abord de justifier la période retenue, soit 1820-1900. L'année 1820 marque la dissolution de la Labrador Company qui détenait le monopole des droits de pêche sur la majorité des postes de l'actuelle Basse-Côte-Nord, à l'exception de ceux de Saint-Paul - Bonne-Espérance et de Bradore (2: pp. 8, 52, 58).3 Avant cette date, du temps des Anglais comme du temps des Français, les postes de pêche de cette partie de la Côte furent exploités par une population plus ou moins nomade, même si certains d'entre eux, comme celui de Bradore (Fort Ponchartrain), furent exploités de façon continue par les mêmes concessionnaires pendant une cinquantaine d'années (entre 1706 et 1760). Il ne reste aujourd'hui aucun descendant de ces pionniers français. A partir de 1820 la Basse-Côte-Nord fut ouverte au peuplement. Par ailleurs, on peut considérer que le tournant du siècle représente la fin de la période de l'immigration, l'ensemble des familles colonisatrices étant déjà sur place dans les différentes communautés de la Côte. Ce sont ces éléments souches qui ont permis l'accroissement naturel de la région. Les données utilisées pour cette reconstruction historique sont relativement abondantes et se répartissent en trois types : des documents publiés, des données provenant du dépouillement des registres paroissiaux, et des données provenant d'entrevues dirigées. La plupart des sources écrites sont des récits de voyages effectués sur la Côte pour des motifs variés et qui représentent des documents de première main sur l'histoire et le peuplement de cette région à différentes périodes. Les rapports du capitaine Fortin sont tout à fait remarquables à ce sujet et ils constituent la documentation de base de l'exposé. Le dépouillement des registres paroissiaux fut effectué dans les plus anciennes missions de la Basse-Côte-Nord, soit Blanc-Sablon (registres depuis 1849) Natashquan (depuis 1861) et Harrington Harbour (depuis 1873). Les registres de ces trois missions contiennent les données complètes jusqu'en 1900 pour tous les postes du territoire qui nous intéresse. Ces données brutes servirent principalement à l'analyse démographique et à la constitution des généalogies, mais elles fournirent aussi des renseignements sur les lieux d'origine de certaines familles. Les entrevues portent principalement sur l'histoire et les généalogies et ont été conduites par l'auteur à l'occasion de deux séjours sur la Côte en 1965 et en 1967 et par les autres chercheurs qui ont travaillé sur le terrain depuis 1965. À partir de ces documents, on a pu découvrir les dates exactes ou approximatives de l'établissement des postes de pêche, les noms des pionniers qui les ont fondés ainsi que leurs lieux d'origine. Il a été possible aussi de reconstituer dans une certaine mesure l'évolution de ces premières populations, leurs migrations internes et externes, ainsi que leurs types d'activités économiques et leurs conditions de vie. Par ailleurs, il est tenu compte du contexte économique et social des sociétés québécoise et terre-neuvienne du temps de ces pionniers, de façon à déceler les circonstances qui ont amené ces populations à venir s'installer sur des côtes « inhospitalières». Lors de son premier voyage, Cartier n'a-t-il pas baptisé le littoral du Labrador du nom de « Terre de Caïn ». La période étudiée se découpe en trois tranches de temps qui semblent particulièrement significatives : A. 1820-1840: période des pionniers; B. 1840-1860: période de peuplement canadien-français; C. 1860-1900: période de peuplement terre-neuvien et de consolidation. Pour éviter les découpages arbitraires, les limites retenues sont des décennies et non des années précises. De cette façon la réalité historique est mieux respectée: les périodes A et B, B et C se chevauchent mutuellement, s'engendrent et se continuent.
10

Mick, Jacques. "Trabalho jornalístico e mundialização." Sur le journalisme, About journalism, Sobre jornalismo 6, no. 2 (December 14, 2017): 68–81. http://dx.doi.org/10.25200/slj.v6.n2.2017.318.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sensibilité de la théorie des champs aux particularités de la constitution de l’habitus professionnel des journalistes dans chaque contexte national ne devrait-elle pas nous conduire à constater l’impossibilité de comparaisons internationales ou amener à des modes spécifiques de les réaliser ? Pour réfléchir à cette question, cet article prend comme objet les études comparatives sur la profession de journaliste qui ont proliféré cette dernière décennie. Depuis le travail fondamental de Hallin et Mancini qui a analysé les modèles des systèmes médiatiques de 18 pays, en 2004 puis lors d’une révision autocritique en 2012, diverses initiatives ont fleuri dans la recherche internationale. Les projets The Worlds of Journalism et Journalistic Role Performance around the Globe (toujours en cours) ont suivi les pistes de l’étude pionnière de David Weaver et tentent de comparer, respectivement, les différentes cultures professionnelles et les modes de relations entre pratiques et rôles qui orientent l’action des journalistes. De telles stratégies partent de principes similaires : en général, les chercheurs élaborent des idéaux-types du journalisme (des modèles) à partir d’une conception fonctionnaliste de la recherche comparative. Critiquant les limites de ces études, nous tentons d’explorer, à partir des perspectives bourdieusiennes sur le champ, les moyens d’améliorer les recherches comparatives, dans une approche ouverte aux différences entre les pratiques journalistiques ou du moins en tentant de s’éloigner d’un horizon normatif. À cette fin, cinq suggestions à caractère théorico-méthodologique sont présentées en fin d’article : a) améliorer la coopération entre les équipes internationales de recherche ; b) densifier l’interprétation des données obtenues à partir du travail de terrain, en se concentrant principalement sur les raisons explicatives de la disparité des pratiques des diverses communautés journalistiques étudiées ; c) incorporer des catégories indigènes afin de traduire des indicateurs ou des variables dans un langage compréhensible pour les répondants ; d) diversifier les sources de données au travers des dimensions suggérées par la recherche de terrain et e) choisir divers types de médias comme objets d’étude, pour tenter d’éviter la réification des pratiques observées dans le journalisme imprimé.

Dissertations / Theses on the topic "Données source ouverte":

1

Guélorget, Paul. "Active learning for the detection of objects of operational interest in open-source multimedia content." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une profusion de contenus, acteurs et interactions en source ouverte sont ciblées par les analystes à des fins commerciales, politiques ou de renseignement. Analyser l'immensité de ces données requiert une assistance automatisée. Bien que les propositions récentes en matière d'architectures de réseaux de neurones aient montré de fortes capacités envers les modalités image et texte, leur entraînement exploite des jeux de données massifs, inexistant pour la majorité des classes d'intérêt opérationnel. Pour résoudre ce problème, l'apprentissage actif tire parti de la grande quantité de documents non annotés en sollicitant un oracle humain pour obtenir les labels des documents présumés les plus informatifs, afin d'améliorer la précision. Cependant, les justifications derrière les décisions du modèle sont opaques et sans lien avec celles de l'oracle. De plus, à cause de ses longues étapes successives, le déroulement de l'apprentissage actif nuit à ses performances en temps réel. Nos contributions dans cette thèse visent à analyser et résoudre ces problèmes à quatre niveaux. Premièrement, nous observons les justifications derrière les décision d'un réseau de neurones. Deuxièmement, nous mettons ces justifications en perspective avec celles élaborées par des humains. Troisièmement, nous incitons un réseau de neurones à aligner ses justificatifs sur ceux d'un modèle professeur qui simule ceux d'un oracle humain, et améliorons sa précision. Finalement, nous mettons au point et exploitons un système d'apprentissage actif pour surmonter ses limitations usuelles. Ces études ont été menées sur des données uni-modales texte ou image, ou sur des paires multi-modales texte/image, principalement des articles de presse en anglais et en français. À travers les chapitres de cette thèse, nous traitons plusieurs cas d'utilisation parmi lesquels la reconnaissance du vague et des fausses nouvelles, la détection du manque d'avis contradictoires dans les articles et la classification d'articles comme abordant des sujets arbitrairement choisis, tels que les manifestations ou la violence
A profusion of openly accessible content, actors and interactions is targeted by analysts for intelligence, marketing or political purposes. Analysing the immensity of open source data requires automated assistance. Although recent propositions in neural network architectures have demonstrated strong capacities for image and text modalities, their training harnesses massive training datasets, non-existent for the majority of operational classes of interest. To address this issue, active learning takes advantage of the great amounts of unlabelled documents by soliciting from a human oracle the ground-truth labels of the presumed most informative documents, to improve accuracy. Yet, the model's decision-making rationales are opaque and might be unrelated to those of the oracle. Furthermore, with its time-consuming iterative steps, the active learning workflow is detrimental to its real-time performances. Our contributions in this thesis aim to analyse and address these issues at four levels. Firstly, we observe the rationales behind a neural network's decisions. Secondly, we put these rationales into perspective with human rationales. Thirdly, we try and make the neural network align its decision-making rationales with those of a teacher model to simulate the rationales of a human oracle and improve accuracy in what is called active learning with rationales. Finally, we design and exploit an active learning framework to overcome its usual limitations. These studies were conducted with uni-modal text and image data, and multi-modal text and image associations, principally press articles in English and French. Throughout this work's chapters, we address several use cases among which fake news classification, vagueness classification, the detection of lack of contradiction in articles, the detection of arbitrary topics such as demonstrations and violence
2

Serrano, Laurie. "Vers une capitalisation des connaissances orientée utilisateur : extraction et structuration automatiques de l'information issue de sources ouvertes." Caen, 2014. http://www.theses.fr/2014CAEN2011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à l’augmentation vertigineuse des informations disponibles librement (notamment sur le Web), repérer efficacement celles qui présentent un intérêt s’avère une tâche longue et complexe. Les analystes du renseignement d’origine sources ouvertes sont particulièrement concernés par ce phénomène. En effet, ceux-ci recueillent manuellement une grande partie des informations d'intérêt afin de créer des fiches de connaissance résumant le savoir acquis à propos d’une entité. Dans ce contexte, cette thèse a pour objectif de faciliter et réduire le travail des acteurs du renseignement et de la veille. Nos recherches s’articulent autour de trois axes : la modélisation de l’information, l'extraction d’information et la capitalisation des connaissances. Nous avons réalisé un état de l’art de ces différentes problématiques afin d'élaborer un système global de capitalisation des connaissances. Notre première contribution est une ontologie dédiée à la représentation des connaissances spécifiques au renseignement et pour laquelle nous avons défini et modélisé la notion d'événement dans ce domaine. Par ailleurs, nous avons élaboré et évalué un système d’extraction d’événements fondé sur deux approches actuelles en extraction d'information : une première méthode symbolique et une seconde basée sur la découverte de motifs séquentiels fréquents. Enfin, nous avons proposé un processus d’agrégation sémantique des événements afin d'améliorer la qualité des fiches d'événements obtenues et d'assurer le passage du texte à la connaissance. Celui-ci est fondé sur une similarité multidimensionnelle entre événements, exprimée par une échelle qualitative définie selon les besoins des utilisateurs
Due to the considerable increase of freely available data (especially on the Web), the discovery of relevant information from textual content is a critical challenge. Open Source Intelligence (OSINT) specialists are particularly concerned by this phenomenon as they try to mine large amounts of heterogeneous information to acquire actionable intelligence. This collection process is still largely done by hand in order to build knowledge sheets summarizing all the knowledge acquired about a specific entity. Given this context, the main goal of this thesis work is to reduce and facilitate the daily work of intelligence analysts. For this sake, our researches revolve around three main axis: knowledge modeling, text mining and knowledge gathering. We explored the literature related to these different domains to develop a global knowledge gathering system. Our first contribution is the building of a domain ontology dedicated to knowledge representation for OSINT purposes and that comprises a specific definition and modeling of the event concept for this domain. Secondly, we have developed and evaluated an event recognition system which is based on two different extraction approaches: the first one is based on hand-crafted rules and the second one on a frequent pattern learning technique. As our third contribution, we proposed a semantic aggregation process as a necessary post-processing step to enhance the quality of the events extracted and to convert extraction results into actionable knowledge. This is achieved by means of multiple similarity measures between events, expressed according a qualitative scale which has been designed following our final users' needs
3

Francis, Fanch. "De la prédiction à la détection d’évènements : L’analyse des mégadonnées au service du renseignement de sources ouvertes." Thesis, Lille 3, 2019. https://pepite-depot.univ-lille.fr/RESTREINT/EDSHS/2019/2019LIL3H046.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comprendre les dynamiques d’un conflit pour en anticiper les évolutions est d'un intérêt majeur pour le renseignement militaire de sources ouvertes (ROSO) et le renseignement policier, notamment dans le cadre de l'Intelligence Led Policing. Si l’ambition de vouloir prédire les évènements d’un conflit n’est pas réaliste, celui de les détecter est un objectif important et réalisable. Les sciences humaines et sociales particulièrement les sciences de l’information et de la communication combinées à la science des données et des documents permettent d’exploiter les réseaux sociaux numériques de manière à faire de la détection et du suivi d’évènement un objectif et une méthode plus adaptées que le "protest event analysis" au contexte des guerres modernes et de la société connectée. Cela nécessite en même temps de rénover le cycle du renseignement.En nous basant sur les données du réseau social Twitter, recueillies pendant la crise ukrainienne, cette thèse montre la pertinence de détection et de suivi de conflit au moyen de notre méthode DETEVEN. Cette méthode permet non seulement d’ identifier les évènements pertinents dans un conflit, mais en facilite aussi leur suivi et interprétation. Elle repose sur une détection d’anomalie statistique, et une adaptation du "protest event analysis" aux médias sociaux. Notre méthode s’avère particulièrement efficace sur ce que nous définissons comme des théâtres d’opération connectés (TOC) caractéristiques des nouveaux contextes de guerre hybride et sur des opérations de désinformation ou d’influence. Ces évènements détectés ont été exploités de façon analytique au moyen d’une plateforme conçue pour un analyste, permettant une visualisation efficace des données. Dans une situation de crise, plus encore dans une "guerre de mouvement social", où chaque utilisateur devient de fait un capteur social, la maîtrise de l’information est un enjeu stratégique. Cette thèse montre alors comment cette maîtrise de l'information constitue un important enjeu à titre individuel comme collectif
Understanding the dynamics of a conflict in order to anticipate its evolution is of major interest for open source military intelligence (OSINT) and police intelligence, particularly in the context of Intelligence Led Policing. If the ambition to predict the events of a conflict is not realistic, the ambition to detect them is an important and achievable objective. The human and social sciences, particularly the information and communication sciences combined with the science of data and documents, make it possible to exploit digital social networks in such a way as to make event detection and monitoring a more appropriate objective and method than the standard "protest event analysis" in the context of modern wars and the connected society. At the same time, this requires a renewed intelligence cycle.Based on data from the social network Twitter, collected during the Ukrainian crisis, this thesis shows the relevance of conflict detection and monitoring using our DETEVEN method. This method not only identifies relevant events in a conflict, but also facilitates their monitoring and interpretation. It is based on the detection of statistical anomalies and the adaptation of protest event analysis to social media. Our method is particularly effective on what we define as connected theatres of operation (CTOs) characteristic of new hybrid warfare contexts and on operations of misinformation or influence. These detected events were analytically exploited using a platform designed for an analyst, allowing effective data visualization. In a crisis situation, especially in a "social movement war", where each user becomes a de facto social sensor, information control is a strategic issue. This thesis therefore shows how information literacy is an important issue for individuals and groups
4

Jeveme, Panta Franck. "Modélisation des métadonnées multi sources et hétérogènes pour le filtrage négatif et l'interrogation intelligente de grands volumes de données : application à la vidéosurveillance." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En raison du déploiement massif et progressif des systèmes de vidéosurveillance dans les grandes métropoles, l'analyse a posteriori des vidéos issues de ces systèmes est confrontée à de nombreux problèmes parmi lesquels: (i) l'interopérabilité, due aux différents formats de données (vidéos) et aux spécifications des caméras propres à chaque système ; (ii) le grand temps d'analyse lié à l'énorme quantité de données et métadonnées générées ; et (iii) la difficulté à interpréter les vidéos qui sont parfois à caractère incomplet. Face à ces problèmes, la nécessité de proposer un format commun d'échange des données et métadonnées de vidéosurveillance, de rendre le filtrage et l'interrogation des contenus vidéo plus efficaces, et de faciliter l'interprétation des contenus grâce aux informations exogènes (contextuelles) est une préoccupation incontournable. De ce fait, cette thèse se focalise sur la modélisation des métadonnées multi sources et hétérogènes afin de proposer un filtrage négatif et une interrogation intelligente des données, applicables aux systèmes de vidéosurveillance en particulier et adaptables aux systèmes traitant de grands volumes de données en général. L'objectif dans le cadre applicatif de cette thèse est de fournir aux opérateurs humains de vidéosurveillance des outils pour les aider à réduire le grand volume de vidéo à traiter ou à visionner et implicitement le temps de recherche. Nous proposons donc dans un premier temps une méthode de filtrage dit "négatif", qui permet d'éliminer parmi la masse de vidéos disponibles celles dont on sait au préalable en se basant sur un ensemble de critères, que le traitement n'aboutira à aucun résultat. Les critères utilisés pour l'approche de filtrage négatif proposé sont basés sur une modélisation des métadonnées décrivant la qualité et l'utilisabilité/utilité des vidéos. Ensuite, nous proposons un processus d'enrichissement contextuel basé sur les métadonnées issues du contexte, et permettant une interrogation intelligente des vidéos. Le processus d'enrichissement contextuel proposé est soutenu par un modèle de métadonnées extensible qui intègre des informations contextuelles de sources variées, et un mécanisme de requêtage multiniveaux avec une capacité de raisonnement spatio-temporel robuste aux requêtes floues. Enfin, nous proposons une modélisation générique des métadonnées de vidéosurveillance intégrant les métadonnées décrivant le mouvement et le champ de vue des caméras, les métadonnées issues des algorithmes d'analyse des contenus, et les métadonnées issues des informations contextuelles, afin de compléter le dictionnaire des métadonnées de la norme ISO 22311/IEC 79 qui vise à fournir un format commun d'export des données extraites des systèmes de vidéosurveillance. Les expérimentations menées à partir du framework développé dans cette thèse ont permis de démontrer la faisabilité de notre approche dans un cas réel et de valider nos propositions
Due to the massive and progressive deployment of video surveillance systems in major cities, a posteriori analysis of videos coming from these systems is facing many problems, including the following: (i) interoperability, due to the different data (video) formats and camera specifications associated to each system; (ii) time-consuming nature of analysis due to the huge amount of data and metadata generated; and (iii) difficulty to interpret videos which are sometimes incomplete. To address these issues, the need to propose a common format to exchange video surveillance data and metadata, to make video content filtering and querying more efficient, and to facilitate the interpretation of content using external (contextual) information is an unavoidable concern. Therefore, this thesis focuses on heterogeneous and multi-source metadata modeling in order to propose negative filtering and intelligent data querying, which are applicable to video surveillance systems in particular and adaptable to systems dealing with large volumes of data in general. In the applicative context of this thesis, the goal is to provide human CCTV operators with tools that help them to reduce the large volume of video to be processed or viewed and implicitly reduce search time. We therefore initially propose a so-called "negative" filtering method, which enables the elimination from the mass of available videos those that it is know in advance, based on a set of criteria, that the processing will not lead to any result. The criteria used for the proposed negative filtering approach are based on metadata modeling describing video quality and usability/usefulness. Then, we propose a contextual enrichment process based on metadata from the context, enabling intelligent querying of the videos. The proposed contextual enrichment process is supported by a scalable metadata model that integrates contextual information from a variety of sources, and a multi-level query mechanism with a spatio-temporal reasoning ability that is robust to fuzzy queries. Finally, we propose a generic metadata modeling of video surveillance metadata integrating metadata describing the movement and field of view of cameras, metadata from content analysis algorithms, and metadata from contextual information, in order to complete the metadata dictionary of the ISO 22311/IEC 79 standard, which aims to provide a common format to export data extracted from video surveillance systems. The experiments performed using the framework developed in this thesis showed the reliability of our approach in a real case and enabled the validation of our proposals
5

Peneranda, Adrien. "Commons et management public du patrimoine culturel à l'ère numérique : étude de cas de production et de diffusion des données culturelles sur des plateformes libres par les villes de Toulouse, Brest et Monmouth." Electronic Thesis or Diss., Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de ce travail doctoral en management public porte sur des projets de partage des connaissances des institutions publiques et culturelles avec les citoyens. Ces projets sont menés par l'intermédiaire de coopérations avec des communautés en ligne gérant des plateformes web appelées Commons. Le mouvement de mise à disposition en libre-accès des données publiques, plus connu sous le nom d'open data, est un phénomène qui s'est accru avec la généralisation de l'informatique dans les administrations et la mise en réseau des ordinateurs avec Internet. Bien que les textes légaux prévoyaient dès 1978 la réutilisation de ces données par les citoyens, de nombreux usages innovants restent à expérimenter, parmi lesquels ceux portant sur la réutilisation des données culturelles. L'objectif de cette recherche est d'explorer les modalités de collaboration autour de ces données entre les organisations publiques et les communautés open source et open média afin de dégager des principes d'ingénierie de système qui soient applicables à des projets relevant de cette catégorie et ainsi offrir une « carte de navigation » de ce nouveau champ d'expérimentation aux managers publics. La finalité de cette thèse en sciences de gestion est ainsi l'étude de la constitution de communs culturels numériques à partir de plateformes libres de gestion des communs de la connaissance
The objective of this research is to understand the logic of collective action which contributes to create value through usage for public intangibles goods like cultural intangible heritage and public data. These informational resources are shared today between public institutions and civil society through innovating and unexplored Public-Private partnerships with open source communities. This doctorate project aims to identify the design principles and governance processes of inter-organizational information systems which enhance cooperation between actors and add a usage value to the intangibles hold by the state
6

Peneranda, Adrien. "Commons et management public du patrimoine culturel à l'ère numérique : étude de cas de production et de diffusion des données culturelles sur des plateformes libres par les villes de Toulouse, Brest et Monmouth." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de ce travail doctoral en management public porte sur des projets de partage des connaissances des institutions publiques et culturelles avec les citoyens. Ces projets sont menés par l'intermédiaire de coopérations avec des communautés en ligne gérant des plateformes web appelées Commons. Le mouvement de mise à disposition en libre-accès des données publiques, plus connu sous le nom d'open data, est un phénomène qui s'est accru avec la généralisation de l'informatique dans les administrations et la mise en réseau des ordinateurs avec Internet. Bien que les textes légaux prévoyaient dès 1978 la réutilisation de ces données par les citoyens, de nombreux usages innovants restent à expérimenter, parmi lesquels ceux portant sur la réutilisation des données culturelles. L'objectif de cette recherche est d'explorer les modalités de collaboration autour de ces données entre les organisations publiques et les communautés open source et open média afin de dégager des principes d'ingénierie de système qui soient applicables à des projets relevant de cette catégorie et ainsi offrir une « carte de navigation » de ce nouveau champ d'expérimentation aux managers publics. La finalité de cette thèse en sciences de gestion est ainsi l'étude de la constitution de communs culturels numériques à partir de plateformes libres de gestion des communs de la connaissance
The objective of this research is to understand the logic of collective action which contributes to create value through usage for public intangibles goods like cultural intangible heritage and public data. These informational resources are shared today between public institutions and civil society through innovating and unexplored Public-Private partnerships with open source communities. This doctorate project aims to identify the design principles and governance processes of inter-organizational information systems which enhance cooperation between actors and add a usage value to the intangibles hold by the state

Books on the topic "Données source ouverte":

1

Ontario. Esquisse de cours 12e année: Théâtre aat4o cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ontario. Esquisse de cours 12e année: Atelier d'écriture fae4o cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ontario. Esquisse de cours 12e année: Langues internationales lbado- lyxdo cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ontario. Esquisse de cours 12e année: Exploration et création artistique aea4o cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ontario. Esquisse de cours 12e année: Vie active et santé ppl4o cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ontario. Esquisse de cours 12e année: Études interdisciplinaires un monde sans frontières idc4o cours ouvert. Vanier, Ont: CFORP, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Données source ouverte":

1

DZALÉ YEUMO, Esther. "Data INRAE : l’entrepôt en réseau." In Partage et valorisation des données de la recherche, 73–86. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis 2018, l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (INRAE) met à disposition de ses chercheurs un entrepôt pour le signalement et le dépôt des données de recherche. Cet entrepôt, dénommé Data INRAE , est basé sur l’application open source Dataverse . Nous avons interrogé Esther Dzalé Yeumo, responsable du pôle “Numérique pour la Science” au sein de la Direction pour la Science Ouverte (DipSO), sur le choix de cette solution, sur les avantages qu’elle présente pour un institut comme l’INRAE et, plus généralement, sur ses fonctionnalités et usages.
2

Ceunen, Marika. "Externalisation ouverte pour l’exploitation d’une source d’archives manuscrite importante." In Le Crowdsourcing, 95–104. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3915.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En 2009, les archives de la ville de Louvain (Belgique) ont décidé de numériser et rendre publiques la partie la plus importante de leur fonds historique portant sur l’Ancien Régime, à savoir les 1 128 registres du greffe scabinal de Louvain (1362-1795) (www.itineranova.be). Cette mission a été réalisée exclusivement en recourant à des externes. Aujourd’hui, le projet Itinera Nova a plus de 70 bénévoles d’origines très diverses qui se sont investis dans tous les aspects du projet, qui vont de la numérisation des registres à la transcription d’Actes néerlandais pour les rendre plus accessibles, ou à la recherche de fonds, ou même au brassage de leur propre « bière des Clercs ». En attribuant aux volontaires des missions qui rejoignent leurs centres d’intérêt sans leur imposer de contraintes, nous leur donnons l’occasion de s’enrichir tout en se rendant utiles à la communauté. De plus, nous saisissons toutes les occasions d’organiser des rencontres avec les volontaires puisque la plus grande part des tâches peut s’effectuer en solitaire chez soi.

Conference papers on the topic "Données source ouverte":

1

Benzina, Ouafae. "Du lexique de l'eau dans Mont-Oriol et Pierre et Jean de Guy de Maupassant." In XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail s’articule autour du thème de l’eau dans Pierre et Jean et Mont-Oriol de Guy de Maupassant. En effet, ces deux œuvres romanesques regorgent d’eau dans toutes ses formes. Dans Pierre et Jean, le lexique de la mer est fort abondant. Le thème de la mer revient sans cesse dans le roman. Il y apparaît en ouverture et en conclusion, évoquant longuement les bateaux et la pêche. Dans Mont-Oriol, l’élément aquatique détermine son espace romanesque et constitue à lui seul le cadre du roman. Il est présent sous plusieurs aspects : eau, source, lac, station, ruisseau. Les images de l’eau dans ces deux œuvres romanesques reflètent l’amour de l’auteur normand pour cet élément naturel. Afin d’analyser ce jaillissement du lexique de l’eau dans ces deux œuvres, nous exploiterons la fonction Contexte et celle du vocabulaire spécifique du logiciel Hyperbase, un logiciel d'exploitation statistique documentaire et de traitement quantitatif des grands corpus, élaboré par Étienne Brunet. En effet, Notre démarche pour le traitement de notre corpus par ce logiciel avait abouti à une base de données que nous avons appelée MAUPASSA.EXE. Dans la présentation du vocabulaire spécifique de chaque œuvre, il s’agit de signaler les unités dont la fréquence manifeste un excédent ou un déficit significatif. Pour déterminer le vocabulaire spécifique d’un corpus, le logiciel Hyperbase calcule l’écart réduit de chaque forme dans chacune des parties du corpus. La mise en œuvre du bouton CONTEXTE, permet de voir l’occurrence que l’on cherche dans le contexte du paragraphe. Si l’on clique sur l’un des passages affichés, on a la possibilité de voir la page entière où le mot apparaît. Nous allons donc nous baser sur cette fonction qui fait gagner aux chercheurs un temps considérable en vue de déterminer le sens que Maupassant donne à l’eau dans toutes ses formes. DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3081

To the bibliography