Auswahl der wissenschaftlichen Literatur zum Thema „Traitement de documents“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Traitement de documents" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Traitement de documents"

1

Champagne, Michel. „Les archives définitives à la Division de la gestion de documents et des archives de l’Université de Montréal : accroissement, traitement, diffusion“. Archives 46, Nr. 2 (27.06.2017): 61–80. http://dx.doi.org/10.7202/1040380ar.

Der volle Inhalt der Quelle
Annotation:
Le texte présente la gestion des archives définitives à la Division de la gestion de document et des archives de l’Université de Montréal, l’un des éléments essentiels du mandat de cette unité. Après avoir situé les interventions de la Division de la gestion de documents et des archives dans le cadre de la Politique sur la gestion de documents et des archives de l’Université de Montréal, le texte aborde la question de l’accroissement des archives. Sont présentés tour à tour, l’impact du calendrier de conservation sur la conservation des archives institutionnelles et le processus d’acquisition des archives de sources privées. Par la suite, le texte décrit le traitement des archives définitives, tant le traitement préliminaire que le traitement définitif. Enfin, l’article brosse un tableau des différentes actions de la Division en ce qui concerne la diffusion des archives soit la référence, les expositions, les réseaux sociaux et d’autres projets de diffusion.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Coustaty, Mickaël, Norbert Tsopze, Karell Berthet, Alain Bouju und Georges Louis. „Traitement des documents anciens à l’aide d’ontologie“. Les cahiers du numérique 8, Nr. 3 (30.09.2012): 91–118. http://dx.doi.org/10.3166/lcn.8.3.91-118.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

André, Jacques, Jean-Daniel Fekete und Hélène Richy. „Traitement mixte image/texte de documents anciens“. Cahiers GUTenberg, Nr. 21 (1995): 75–85. http://dx.doi.org/10.5802/cg.172.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Boudreau, Christian, Myriam Claveau, Louis-Pascal Rousseau, Jérôme Bégin und David Camirand. „L’externalisation ouverte dans le traitement des documents patrimoniaux : une collaboration citoyenne au service des institutions culturelles“. Archives 50, Nr. 1 (19.09.2022): 73–98. http://dx.doi.org/10.7202/1092324ar.

Der volle Inhalt der Quelle
Annotation:
Le présent article traite de l’externalisation ouverte (crowdsourcing) au sein d’organisations à vocation historique et culturelle. Il porte plus particulièrement sur la collaboration citoyenne dans le traitement des documents patrimoniaux numérisés par les centres d’archives et les bibliothèques. Les auteurs y présentent les principales composantes de l’externalisation ouverte (organisation, contributeurs, tâches et plateformes), en particulier dans un contexte d’enrichissement du patrimoine documentaire, ainsi que la mécanique derrière ce phénomène et ses retombées. Ils abordent aussi trois importants défis auxquels doivent inévitablement faire face les organisations qui souhaitent externaliser des tâches relatives au traitement des documents patrimoniaux, à savoir la participation des contributeurs, la qualité des contributions et l’intégration institutionnelle de ces contributions. L’article termine sur des pistes de solution visant à concilier les pratiques institutionnelles (ou professionnelles) et les pratiques citoyennes dans le traitement des documents patrimoniaux, tout en précisant que les archivistes semblent bien placés pour relever certains de ces nouveaux défis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Huneault, Mireille. „Un traitement documentaire rigoureux“. Documentation et bibliothèques 51, Nr. 1 (24.04.2015): 35–37. http://dx.doi.org/10.7202/1030119ar.

Der volle Inhalt der Quelle
Annotation:
Le traitement documentaire, qui permet le repérage des documents et l’exploitation optimale des collections, comprend trois opérations effectuées conformément aux normes internationales : la description bibliographique, l’indexation et la classification. La Direction du traitement documentaire de la collection patrimoniale assure aussi la production de la Bibliographie du Québec, le contrôle des autorités et la mise en oeuvre du programme de catalogage avant publication.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Noël, Ginette. „L’Archivistique et la gestion des documents dans les municipalités du Québec“. Urban History Review 11, Nr. 3 (25.10.2013): 15–23. http://dx.doi.org/10.7202/1019012ar.

Der volle Inhalt der Quelle
Annotation:
Dans cet article on retrouve le résultat d’une enquête réalisée en 1981 auprès d’un échantillonnage de 105 municipalités du Québec. Il ressort de l’analyse des données recueillies que le traitement des documents municipaux est mieux structuré dans les villes à forte concentration de population. Par contre, les localités de moindre envergure accordent davantage la priorité au classement des documents actifs et à la préservation des archives essentielles qu’à l’utilisation du microfilm, à l’élaboration d’un calendrier de conservation ou à la mise sur pied d’un centre de pré-archivage. Autre conclusion intéressante de cette recherche : il existe un mouvement en faveur d’une meilleure conservation des documents municipaux au Québec. Le texte propose et décrit un éventail de ressources dont peuvent bénéficier les municipalités dans leur recherche de moyens pour le traitement de leurs documents.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Crombette, Pauline, Sébastien Le Corre und Claire Tinel. „Traitement d'images satellitaires à Très Haute Résolution Spatiale et identification de zones à enjeux dans l'aménagement des Trames Vertes urbaines“. Revue Française de Photogrammétrie et de Télédétection, Nr. 208 (05.09.2014): 19–25. http://dx.doi.org/10.52638/rfpt.2014.130.

Der volle Inhalt der Quelle
Annotation:
Ce travail présente la mise en place d'une chaîne de traitement d'images à très haute résolution spatiale pour l'extraction de la végétation urbaine et une mise en application méthodologique au service des aménageurs du territoire pour l'identification des connectivités écologiques, un concept politique issu des lois Grenelle de l'Environnement.Les résultats ont montré qu'il est possible d'extraire la végétation urbaine d'une image satellite Pléiades à l'aide d'une méthode simple, semi-automatisée et utilisant des outils libres tant pour des traitements raster que vecteurs. La chaîne de traitement développée permet ainsi de distinguer la végétation basse de la végétation arborée à partir d'indices radiométriques simples.La discrimination de cette végétation urbaine nous a ensuite permis de valoriser ces résultats et de développer une méthode d'identification des connectivités écologiques urbaines qui s'appuie sur la théorie des graphes. Cette nouvelle information géographique, couplée à d'autres indicateurs et documents d'urbanisme, permet de localiser les zones d'enjeux où un besoin de maintien de la biodiversité et une volonté d'urbanisation s'affrontent.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Da Sylva, Lyne. „Thésaurus et systèmes de traitement automatique de la langue“. Documentation et bibliothèques 52, Nr. 2 (20.04.2015): 149–56. http://dx.doi.org/10.7202/1030018ar.

Der volle Inhalt der Quelle
Annotation:
Cet article expose le rôle que le thésaurus documentaire classique est appelé à jouer dans certains systèmes de traitement automatique de la langue. Ce type de ressource lexicale est très prisé par le domaine du traitement automatique de la langue, puisqu’il permet d’appréhender, au moins en partie, la sémantique des documents. Cette capacité peut être mise à contribution dans un grand nombre d’applications différentes. Sont présentés les thésaurus les plus utilisés pour le traitement automatique, suivis des exigences particulières qui s’appliquent aux thésaurus pour le traitement automatique. Enfin, sont brièvement abordés les efforts de construction automatique de thésaurus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Chauvie, Anne. „traitement des fonds mixtes. L’exemple des archives d’artistes valaisans“. Informationswissenschaft: Theorie, Methode und Praxis 8, Nr. 1 (06.05.2024): 519–34. http://dx.doi.org/10.18755/iw.2024.24.

Der volle Inhalt der Quelle
Annotation:
En 2020, les Musées cantonaux du Valais ont déposé les Archives d’artistes valaisans aux Archives de l’État du Valais, un ensemble de fonds, de collections et de documents épars. Ces archives « mixtes » sont composées de supports très hétérogènes, allant de gravures et de dessins à des objets en trois dimensions en passant par des documents audiovisuels. Le traitement des fonds mixtes est la problématique centrale de cet article. Pour répondre aux questions qu’elle soulève, l’acquisition de ces fonds et leur traitement aux AEV ont été examinés, permettant d’effectuer un état de la situation en Valais. Les pratiques de deux institutions ont aussi été observées : la Cinémathèque suisse, les archives nationales du film, et la Fondation SAPA, Archives suisses des arts de la scène. Elles ont la particularité de conserver une majorité de fonds mixtes et ont ainsi développé des pratiques intéressantes pour la gestion de ces fonds. Cette étude préalable a permis de donner des propositions pour le traitement d’archives d’artistes valaisans.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Giroux, Michel T. „Les préalables à un débat sensé sur l’euthanasie, et la pertinence du document de la Commission de Réforme du droit sur l’euthanasie, considérant le projet de loi C-384“. Articles 24, Nr. 1-2 (22.11.2012): 18–30. http://dx.doi.org/10.7202/1013081ar.

Der volle Inhalt der Quelle
Annotation:
La Commission de réforme du droit du Canada (CRD) a publié, en 1982, un document de travail intitulé Euthanasie, aide au suicide et interruption de traitement. En 2009, la députée Francine Lalonde a déposé à la Chambre des communes le projet de loi C-384 intitulé Loi modifiant le Code criminel (droit de mourir dignement). Ce projet de loi a été défait. Une période de près de trente ans sépare ces deux documents. Quelles sont les préoccupations que partagent ces documents ? Le projet de loi envisage-t-il l’aide au suicide d’une manière qui diffère de celle du document de la CRD ? L’examen du document de la CRD, du projet de loi C-384 et des travaux de la Chambre des communes fait ressortir des difficultés persistantes dans nos discussions publiques. Certaines suggestions s’imposent à propos du débat souhaitable dans une matière aussi contentieuse que l’euthanasie et l’aide au suicide.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Traitement de documents"

1

Blibech, Kaouther. „L'horodatage sécurisé des documents électroniques“. Pau, 2006. http://www.theses.fr/2006PAUU3010.

Der volle Inhalt der Quelle
Annotation:
L'horodatage est une technique qui permet de garantir l'existence d'un document à une date bien déterminée. Le développement de systèmes d'horodatage sûrs correspond à un grand besoin dans beaucoup de domaines, notamment pour les soumissions de brevets, les votes électroniques, le commerce électronique et la non répudiation des signatures digitales. Dans les systèmes d'horodatage sécurisés, une ou plusieurs autorités d'horodatage traitent les requêtes d'horodatage et fournissent les preuves permettant de garantir que les requêtes ont été correctement horodatées. Cette thèse nous a permis d'élaborer deux systèmes d'horodatage sécurisé. Le premier système utilise un dictionnaire authentifié basé sur les skips listes parfaites où seul l'ajout en fin de liste est autorisé. Nous montrons que notre système d'horodatage présente de meilleures performances que les systèmes existants. Le second système d'horodatage que nous présentons est un système distribué de type k parmi n. Nous montrons d'abord que ce type de systèmes n'est pas sécurisé si les autorités qui le forment n'utilisent pas de protocoles d'horodatage sécurisés, et nous présentons ensuite un nouveau système d'horodatage distribué qui est sécurisé
Timestamping is a technique for providing proof-of-existence of a message/document at a given time. Timestamping is mandatory in many domains like patent submissions, electronic votes, electronic commerce and non-repudiation of digital signatures. In secure timestamping systems, one or several timestamping authorities process timestamping requests and provide formal proofs in order to guarantee that requests were correctly timestamped. In this thesis, we provide two secure timestamping systems. The first one uses an authenticated totally ordered append-only dictionary based on perfect skip lists. We show that our timestamping scheme has better performances than existing ones. The second one is a distributed timestamping scheme of type k among n. We first prove that this type of distributed timestamping systems is not secure if the used timestamping authorities do not use secure timestamping protocols. We then provide a new distributed timestamping scheme which is secure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Benjelil, Mohamed. „Analyse d'images de documents complexes et identification de scripts : cas des documents administratifs“. La Rochelle, 2010. http://www.theses.fr/2010LAROS299.

Der volle Inhalt der Quelle
Annotation:
Ce document présente nos travaux sur les méthodes d'analyse d'images de documents multilingues multi-script : cas des documents administratifs à l'aide d'une approche texture. Deux thèmes sont abordés: (1) segmentation d'images de documents; (2) identification de scripts Arabe et Latin imprimés et / ou manuscrits. Les approches développés concernent le flux de documents tout venant dont la particularité est qu'il n'obéit pas à un modèle bien déterminé. Le premier chapitre présente la problématique et l'état de l'art de la segmentation et l'identification de script dans les documents complexes. Le second chapitre est consacré au développement d'outils méthodologiques pour la segmentation d'images de documents en régions. Dans le troisième chapitre nous présentons l'application de notre approche sur la segmentation des documents administratifs. Dans le quatrième chapitre nous présentons l'application de notre approche sur l'identification de script Arabe et Latin imprimés et/ ou manuscrits. Trois objectifs distincts sont envisagés: (1) la segmentation complète de l'image, (2) l'identification du script du contenu textuel de l'image du document, (3) la possibilité d'extraire un objet particulier dans l'image. L'approche adoptée est basée sur la classification des régions à l'aide des caractéristiques extraites de la décomposition en pyramide orientale. Les résultats obtenus au cours de cette thèse convergent, tous, pour démontrer la capacité des approches proposés à l'analyse et à la caractérisation d'images de documents complexes. Des exemples d'application, des tests de performance et des études comparatives sont ensuites présentées
This thesis describes our work in the field of multilingual multi-script complex document image segmentation: case of official documents. We proposed texture-based approach. Two different subjects are presented: (1) document image segmentation; (2) Arabic and Latin script identification in printed ant/ or handwriten types. The developed approaches concern the flow of documents that do not obey to a specific model. Chapter 1 presents the problematic and state of the complex document image segmentation and script identification. The work described in chapter 2 aimed at finding new models for complex multilingual multi-script document image segmentation. Algorythms have been developed for the segmentation of document images into homogeneous regions, identifying the script of textual blocs contained in document image and also can segment out a particular object in an image. The approach is based on classification on text and non text regions by mean of steerable pyramid features. Chapter 3 describes our work on official documents images segmentation based on steerable pyramid features. Chapter 4 describes our work on Arabic and Latin script identification in printed and/ or handwritten types. Experimental results shows that the proposed approaches perform consistently well on large sets of complex document images. Examples of application, performance tests and comparative studies are also presented
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Xu, Zhiwu. „Polymorphisme paramétrique pour le traitement de documents XML“. Paris 7, 2013. http://www.theses.fr/2013PA077030.

Der volle Inhalt der Quelle
Annotation:
XML (eXtensible Markup Language) est un format standard pour l'échange de données semi-structurées, qui est utilisé dans les services web, les bases de données, et comme format de sérialisation pour échanger des données entre applications. Afin d'avoir un meilleur traitement de données XML, plusieurs langages statiquement typés pour XML ont été re��cemment définis, tels XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamIDuce. Ces langages peuvent vérifier si un programme n'engendra d'erreurs de types à l'exécution. Mais la plupart de ces langages n'incluent pas le polymorphisme paramétrique ou l'incluent sous une forme très limitée. Cependant, le traitement de données XML nécessite du polymorphisme paramétrique, c'est pourquoi il a été demandé et discuté à plusieurs reprises dans divers groupes de travail de standardisation (par exemple, RELAX-NG et XQuery). Nous étudions dans cette thèse les techniques pour étendre par le polymorphisme paramétrique les langages de traitement XML. Notre solution se déroule sur deux étapes : (i) nous définissons et étudions une relation de sous-typage polymorphe sémantique pour un système de type avec types récursifs, types des produits, types des flèches, et types des ensemblistes (c'est-à-dire, l'union, l'intersection et la négation) ; et (ii) nous concevons et étudions un langage fonctionnel d'ordre supérieur qui tire pleinement parti des nouvelles fonctionnalités du système de type. La solution que nous proposons dans cette thèse est générale. Ainsi elle a des domaines d'application autres que les langages pour le traitement de données XML
XML (eXtensible Markup Language) is a current standard format for exchanging semi-structured data, which has been applied to web services, database, research on formal methods, and so on. For a better processing of XML, recently there emerge many statically typed functional languages, such as XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamIDuce and so on. But most of these languages lack parametric polymorphism or present it in a limited form. While parametric polymorphism is needed by XML processing, and it has repeatedly been requested to and discussed in various working groups of standards (e. G. , RELAX NG and XQuery). We study in this thesis the techniques to extend parametric polymorphism into XML processing languages. Our solution consists of two parts : a definition of a polymorphic semantic subtyping relation and a definition of a polymorphic calculus. In the first part, we define and study a polymorphic semantic subtyping relation for a type system with recursive, product and arrow types and set-theoretic type connectives (i. E. , union, intersection and negation). We introduce the notion of "convexity" on which our solution is built up and prove there exists at least one model that satisfies convexity. We also propose a sound, complete and decidable subtyping algorithm. The second part is devoted to the theoretical definition of a polymorphic calculus, which takes advance of the subtyping relation. The novelty of the polymorphic calculus is to decorate lambda-abstractions with sets of type-substitutions and to lazily propagate type-substitutions at the moment of the reduction. The second part also explores a semi-decidable local inference algorithm to infer the set of type substitutions as well as the compilation of the polymorphic calculus into a variety of CDuce
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Lecluze, Charlotte. „Alignement de documents multilingues sans présupposé de parallélisme“. Caen, 2011. http://www.theses.fr/2011CAEN2058.

Der volle Inhalt der Quelle
Annotation:
Aujourdfhui les travaux exploitant des documents multilingues se tournent vers lfétude de textes comparables alors même que tous les aspects des documents parallèles nfont pas été étudiés ni tous les verrous liés aux méthodes dfalignement levés, notamment leur mise en forme et les cas dfinversions et de suppressions au niveau sur-phrastique. Ainsi, nous ne disposons pas à ce jour dfoutils permettant de valoriser cette mine dfinformations, dfen extraire aussi massivement qufenvisagé des ressources pourtant utiles tant aux traducteurs qufaux lexicologues. Nous présentons ici une méthode sans présupposé de parallélisme entre les différents volets dfun multidocument. Lfidée essentielle de ces travaux est la suivante : entre deux volets dfun multidocument, il existe des grains qui maximisent le parallélisme, nous les des multizones. Celles-ci peuvent recouvrir plusieurs réalités : documents, série de paragraphes, paragraphes, propositions. . . Ces multizones ne sont pas délimitables de çon ad hoc, il convient de le faire en contexte et de façon indépendante des langues. À ces fins, nous combinons plusieurs procédés originaux : étudier chaque multidocument au travers dfune collection de multidocuments, exploiter la mise en forme des documents par traitement direct du source ou encore traiter des chaînes de caractères répétées plutôt que des mots. Notre objectif est double : appariement et alignement, i. E. Création de ressources et analyse de documents. Cette méthode requiert peu de supervision, lfajout dfune nouvelle ou le changement de corpus dfentrée ne représentent pas un coût important
Today the works using multilingual documents are turning to the study of comparable texts even though all aspects of parallel documents have not been studied nor alignment method locks raised, including their formatting and the cases of inversions and deletions at macro level. Thus, to date there is no tools to take benefit from this wealth of information, to extract resources as massively as envisaged, despite their usefulness both for translators and lexicologists. . . We present a method without assumption of parallelism between the different components of a multiple document. The basic idea of this work is: between two components of a multi-document, there are grains that maximize the parallelism, we call them multizones. They can cover several realities: document, series of paragraphs, paragraphs, proposals. . . Their boundaries can not be defined in an ad hoc way, it should be done in context and independently of languages. To this end, we combine several original processes: study each multiple document through a collection of multi-document, use the formatting of documents by direct processing of source or process repeated strings rather than words. The purpose of this work is twofold: matching and alignment, i. E. Resource creation and document analysis. This method requires little supervision. Add a new language or change corpus of entry do not represent a significant cost
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Alhéritière, Héloïse. „Extraction de la mise en page de documents : application à la sécurisation des documents hybrides“. Electronic Thesis or Diss., Université Paris Cité, 2019. http://www.theses.fr/2019UNIP5201.

Der volle Inhalt der Quelle
Annotation:
Les documents numériques sont de plus en plus présents dans notre société. Ce format a de nombreux avantages, que ce soit pour la diffusion ou la sauvegarde de documents. La diffusion permet de transmettre facilement des documents, mais ne permet pas de garantir l'intégrité de ceux-ci, ni pour ceux qui le reçoivent, ni pour ceux qui le diffusent. Durant leur cycle de vie, les documents passent généralement d'un état dématérialisé à un état matérialisé et inversement. Les deux formats possèdent leurs avantages et leurs inconvénients, ce qui justifie qu’un même document puisse se retrouver dans les deux états. Lorsque l'on passe d'un format matérialisé à celui dématérialisé, nous obtenons une image, un ensemble de pixels qu’il faut interpréter. Les différentes instances d'un même document que nous pouvons obtenir en scannant ou en imprimant plusieurs fois celui-ci définissent le « document hybride ». Un premier niveau de comparaison peut être réalisé en analysant la mise en page du document. Les méthodes d'extraction de la mise en page sont nombreuses et nous les analysons pour mettre en évidence leurs défauts et leur adéquation à des catégories bien particulières de document. Aussi nous avons développé une méthodologie qui s'appuie sur de nouvelles transformées permettant d'innover dans le mode de représentation d'une image de document. Les segments de droites sont au centre de notre travail. Nous pouvons traiter des documents divers sans avoir recours à un apprentissage supervisé. Nous innovons aussi au niveau de l'évaluation de notre proposition. En effet, dans la perspective de la sécurisation d'un document hybride, à la précision d'une décomposition de la page, nous adjoignons la nécessité de résultats stables pour toutes les instances d'un document
Digital documents are more and more present in our society. This format has many advantages, whether for distribution or document backup. Distribution allows for an easy transmission of documents but do not guarantee their integrity neither for the receiver nor for the sender. Throughout their life cycle, documents go from a dematerialized state to a materialized state and vice versa. The two formats have their own advantages and disadvantages, justifying the fact that a document can be found in the two formats. When we go from a materialized format to a dematerialized one we get an image, a set of pixels that need to be interpreted. The different instances of a same document obtained by scanning or printing it many times define the "hybrid document". A first level of comparison can be realized by analyzing the document layout. Many layout extraction methods exist. We analyze them to highlight their default and their adequacy to particular category of documents. We have also developed a methodology based on new transforms thus innovating in the representation of a document image. We can process various documents without needing supervised learning. We also adopt a more innovative approach in our evaluation method. Thus, for the purpose of securing hybrid document, we associate to the accuracy of a page decomposition the necessity of stable results for every instance of a document
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Xu, Zhiwu. „POLYMORPHISME PARAM’TRIQUE POUR LE TRAITEMENT DE DOCUMENTS XML“. Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00858744.

Der volle Inhalt der Quelle
Annotation:
XML (eXtensible Markup Language) est un format standard pour l'échange de données semi-structurées, qui est utilisé dans services web, les bases de données, et comme format de sérialisation pour échanger des données entre applications. Afin d'avoir un meilleur traitement de données XML, plusieurs langages statiquement typés pour XML ont été récemment définis, tels XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamlDuce. Ces langages peuvent vérifier si un programme n'engendra d'erreurs de types à l'exécution. Mais la plupart de ces langages n'incluent pas le polymorphisme paramétrique ou l'incluent sous un forme très limitée. Cependant, le traitement de données XML nécessite du polymorphisme paramétrique, c'est pourquoi il a été demandé et discuté à plusieurs reprises dans diverses groupes de travail de standardisation (par example, RELAX-NG et XQuery). Nous étudions dans cette thèse les techniques pour étendre par le polymorphisme paramétrique les langages de traitement XML. Notre solution se deroule sur deux étapes: (i) nous définissons et étudions une relation de sous-typage polymorphe sémantique pour un système de type avec types récursifs, types des produits, types des flèches, et types des ensemblistes (c'est-à-dire, l'union, l'intersection et la négation); et (ii) nous concevons et étudions un langage fonctionnel d'ordre supérieur qui tire pleinement parti des nouvelles fonctionnalités du système de type. La solution que nous proposons dans cette thèse est générale. Ainsi elle a des domaines d'application autres que les langages pour le traitement de données XML.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Arias, Aguilar José Anibal. „Méthodes spectrales pour le traitement automatique de documents audio“. Toulouse 3, 2008. http://thesesups.ups-tlse.fr/436/.

Der volle Inhalt der Quelle
Annotation:
Les disfluences sont un phénomène apparaissant fréquemment dans toute production orale spontanée ; elles consistent en l'interruption du cours normal du discours. Elles ont donné lieu à de nombreuses études en Traitement Automatique du Langage Naturel. En effet, leur étude et leur identification précise sont primordiales, sur les plans théorique et applicatif. Cependant, la majorité des travaux de recherche sur le sujet portent sur des usages de langage quotidien : dialogues " à bâtons rompus ", demandes d'horaire, discours, etc. Mais qu'en est-il des productions orales spontanées produites dans un cadre contraint ? Aucune étude n'a à notre connaissance été menée dans ce contexte. Or, on sait que l'utilisation d'une " langue de spécialité " dans le cadre d'une tâche donnée entraîne des comportements spécifiques. Notre travail de thèse est consacré à l'étude linguistique et informatique des disfluences dans un tel cadre. Il s'agit de dialogues de contrôle de trafic aérien, aux contraintes pragmatiques et linguistiques. Nous effectuons une étude exhaustive des phénomènes de disfluences dans ce contexte. Dans un premier temps nous procédons à l'analyse fine de ces phénomènes. Ensuite, nous les modélisons à un niveau de représentation abstrait, ce qui nous permet d'obtenir les patrons correspondant aux différentes configurations observées. Enfin nous proposons une méthodologie de traitement automatique. Celle-ci consiste en plusieurs algorithmes pour identifier les différents phénomènes, même en l'absence de marqueurs explicites. Elle est intégrée dans un système de traitement automatique de la parole. Enfin, la méthodologie est validée sur un corpus de 400 énoncés
The disfluencies are a frequently occurring phenomenon in any spontaneous speech production; it consists of the interruption of the normal flow of speech. They have given rise to numerous studies in Natural Language Processing. Indeed, their study and precise identification are essential, both from a theoretical and applicative perspective. However, most of the researches about the subject relate to everyday uses of language: "small talk" dialogs, requests for schedule, speeches, etc. But what about spontaneous speech production made in a restrained framework? To our knowledge, no study has ever been carried out in this context. However, we know that using a "language specialty" in the framework of a given task leads to specific behaviours. Our thesis work is devoted to the linguistic and computational study of disfluencies within such a framework. These dialogs concern air traffic control, which entails both pragmatic and linguistic constraints. We carry out an exhaustive study of disfluencies phenomena in this context. At first we conduct a subtle analysis of these phenomena. Then we model them to a level of abstraction, which allows us to obtain the patterns corresponding to the different configurations observed. Finally we propose a methodology for automatic processing. It consists of several algorithms to identify the different phenomena, even in the absence of explicit markers. It is integrated into a system of automatic processing of speech. Eventually, the methodology is validated on a corpus of 400 sentences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Janod, Killian. „La représentation des documents par réseaux de neurones pour la compréhension de documents parlés“. Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0222/document.

Der volle Inhalt der Quelle
Annotation:
Les méthodes de compréhension de la parole visent à extraire des éléments de sens pertinents du signal parlé. On distingue principalement deux catégories dans la compréhension du signal parlé : la compréhension de dialogues homme/machine et la compréhension de dialogues homme/homme. En fonction du type de conversation, la structure des dialogues et les objectifs de compréhension varient. Cependant, dans les deux cas, les systèmes automatiques reposent le plus souvent sur une étape de reconnaissance automatique de la parole pour réaliser une transcription textuelle du signal parlé. Les systèmes de reconnaissance automatique de la parole, même les plus avancés, produisent dans des contextes acoustiques complexes des transcriptions erronées ou partiellement erronées. Ces erreurs s'expliquent par la présence d'informations de natures et de fonction variées, telles que celles liées aux spécificités du locuteur ou encore l'environnement sonore. Celles-ci peuvent avoir un impact négatif important pour la compréhension. Dans un premier temps, les travaux de cette thèse montrent que l'utilisation d'autoencodeur profond permet de produire une représentation latente des transcriptions d'un plus haut niveau d'abstraction. Cette représentation permet au système de compréhension de la parole d'être plus robuste aux erreurs de transcriptions automatiques. Dans un second temps, nous proposons deux approches pour générer des représentations robustes en combinant plusieurs vues d'un même dialogue dans le but d'améliorer les performances du système la compréhension. La première approche montre que plusieurs espaces thématiques différents peuvent être combinés simplement à l'aide d'autoencodeur ou dans un espace thématique latent pour produire une représentation qui augmente l'efficacité et la robustesse du système de compréhension de la parole. La seconde approche propose d'introduire une forme d'information de supervision dans les processus de débruitages par autoencodeur. Ces travaux montrent que l'introduction de supervision de transcription dans un autoencodeur débruitant dégrade les représentations latentes, alors que les architectures proposées permettent de rendre comparables les performances d'un système de compréhension reposant sur une transcription automatique et un système de compréhension reposant sur des transcriptions manuelles
Application of spoken language understanding aim to extract relevant items of meaning from spoken signal. There is two distinct types of spoken language understanding : understanding of human/human dialogue and understanding in human/machine dialogue. Given a type of conversation, the structure of dialogues and the goal of the understanding process varies. However, in both cases, most of the time, automatic systems have a step of speech recognition to generate the textual transcript of the spoken signal. Speech recognition systems in adverse conditions, even the most advanced one, produce erroneous or partly erroneous transcript of speech. Those errors can be explained by the presence of information of various natures and functions such as speaker and ambience specificities. They can have an important adverse impact on the performance of the understanding process. The first part of the contribution in this thesis shows that using deep autoencoders produce a more abstract latent representation of the transcript. This latent representation allow spoken language understanding system to be more robust to automatic transcription mistakes. In the other part, we propose two different approaches to generate more robust representation by combining multiple views of a given dialogue in order to improve the results of the spoken language understanding system. The first approach combine multiple thematic spaces to produce a better representation. The second one introduce new autoencoders architectures that use supervision in the denoising autoencoders. These contributions show that these architectures reduce the difference in performance between a spoken language understanding using automatic transcript and one using manual transcript
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Lemaitre, Aurélie Camillerapp Jean. „Introduction de la vision perceptive pour la reconnaissance de la structure de documents“. Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lemaitre.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Carmagnac, Fabien. „Classification supervisée et semi-supervisée : contributions à la classification d’images et de documents“. Rouen, 2005. http://www.theses.fr/2005ROUES058.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose des contributions à la problématiques de la classification supervisée et semi-supervisée des images de documents sous des contraintes telles qu’un faible nombre d’exemples d’apprentissage, la sélection dynamique de caractéristiques pertinentes et le temps de classification. Le premier chapitre dresse une introduction générale de la problématique en exposant les composants d’une chaîne de traitement des images de document. Le second chapitre propose une stratégie de classification supervisée basée sur les notions de point de vue dans plusieurs espaces caractéristiques et d’espace de distances induit. Le troisième chapitre propose une méthode de classification semi-supervisée se basant sur une collaboration entre les dendogrammes obtenus par classification ascendante hiérarchique à partir de plusieurs espaces de caractéristiques. Enfin, le dernier chapitre dresse une conclusion et ouvre des perspectives pour la poursuite de ce travail
This manuscript proposes some contributions to the supervised and semi-supervised document image classification under contraints such as a low number of training samples, dynamic feature selection and classification time. The first chapter draws up a general introduction of problems by exposing the components of a document image processing system. The second chapter proposes a strategy for the supervised classification based on the concepts from point of view in several feature spaces and induced distance space. The third chapter proposes a method for the semi-supervised classification based on a collaboration between the dendogrammes obtained by ascending hierarchical clustering using several feature spaces. Lastly, the last chapter draws up a conclusion and opens on prospects for the continuation for this work
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Traitement de documents"

1

Fondin, Hubert. Le traitement numérique des documents. Paris: Hermès, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Champagne, Michel. Le traitement d'un fonds d'archives: Ses documents historiques. La Pocatière, Québec: Documentor, 1987.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Les collections en devenir: Typologie des documents, politique et traitement documentaires. Paris: Cercle de la librairie, 2010.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Forget, J. Le centre de documentation: Installation, traitement des documents et de l'information bibliographique. Paris: Agence de coopération culturelle et technique, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Maniez, Dominique. Vos documents longs avec Word: Réalisez efficacement vos mémoires, romans, thèses, rapports--. Paris: Dunod, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Standardization, International Organization for, Hrsg. Information technology, processing languages, document style semantics and specification language (DSSSL) =: Technologies de l'information, langages de traitement, sémantique de présentation de documents et langage de spécifications (DSSSL). Genève, Switzerland: ISO/IEC, 1996.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Marcus, Aaron. Graphic design for electronic documents and user interfaces. New York, N.Y: ACM Press, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

American Bar Association. Section of Law Practice Management, Hrsg. The lawyer's guide to Adobe Acrobat. 3. Aufl. Chicago, Ill: ABA Law Practice Management Section, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Digital imaging: A practical approach. Walnut Creek, CA: Altamira Press, 2004.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Video dialtone technology: Digital video over ADSL, HFC, FTTC, and ATM. New York: McGraw-Hill, 1995.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Traitement de documents"

1

Gicquel, Quentin, Denys Proux, Pierre Marchal, Caroline Hagége, Yasmina Berrouane, Stéfan J. Darmoni, Suzanne Pereira, Frédérique Segond und Marie-Héléne Metzger. „Évaluation d’un outil d’aide á l’anonymisation des documents médicaux basé sur le traitement automatique du langage naturel“. In Informatique et Santé, 165–76. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_15.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

FLEURY SOARES, Gustavo, und Induraj PUDHUPATTU RAMAMURTHY. „Comparaison de modèles d’apprentissage automatique et d’apprentissage profond“. In Optimisation et apprentissage, 153–71. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch6.

Der volle Inhalt der Quelle
Annotation:
Pour réaliser un audit, l'utilisation de toutes les informations disponibles relatives à l'univers ou au sujet de l'audit pourrait améliorer la qualité des résultats. La classification des documents textuels de l'audit pourrait permettre l'utilisation d'informations supplémentaires pour améliorer les données structurées existantes, ce qui conduirait à une meilleure connaissance pour soutenir le processus d'audit. Nous avons appliqué cette démarche au traitement du langage naturel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

MURHEGA, Jean B. „Enseigner et apprendre autrement pendant le confinement en République Démocratique du Congo“. In Les écoles africaines à l’ère du COVID-19, 225–40. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.7931.

Der volle Inhalt der Quelle
Annotation:
À cause de sa capacité de contagion et du tâtonnement dans son traitement, la maladie à coronavirus exige des gestes barrières comme le port du masque, la distanciation sociale et le confinement. D'où l'arrêt des activités scolaires, sportives et ecclésiastiques, dont la reprise est tributaire de la maîtrise de la pandémie. Dans cet article, nous montrons que, par mimétisme, la politique congolaise a annoncé la possibilité d'un téléenseignement dont la mise en pratique a rencontré des difficultés techniques énormes. En conséquence, certains élèves, aux parents riches, étudiaient leurs leçons à domicile avec les précepteurs~; d'autres, aux parents pauvres, n'en bénéficiaient pas. Visant à terminer le programme pour permettre la transition du primaire au secondaire et du secondaire au supérieur, les écoles ont organisé un encadrement rémunérateur des élèves des classes terminales. Par la suite, il a rendu public un calendrier réaménagé en faveur des classes terminales du primaire et du secondaire. Les partenaires du système éducatif congolais ont conçu des fascicules d'exercices en mathématiques et Français, qui les ont mis gratuitement à la disposition des élèves des classes montantes. Pour renflouer les caisses des écoles, ce document a été vendu à un prix variant d'une école à une autre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Traitement de documents"

1

Jacob, Steve, und Sébastien Brousseau. L’IA dans le secteur public : cas d’utilisation et enjeux éthiques. Observatoire international sur les impacts sociétaux de l'IA et du numérique, Mai 2024. http://dx.doi.org/10.61737/fcxm4981.

Der volle Inhalt der Quelle
Annotation:
L’introduction de l’intelligence artificielle (IA) dans l’administration publique est en pleine expansion et représente la phase plus récente de la transformation numérique. L’utilisation de systèmes d’IA est souvent associée à l’amélioration de l’efficacité et de la productivité, car elle permet d’exécuter rapidement des tâches routinières, de réaliser des activités à une plus grande échelle et de rendre les services accessibles à un plus grand nombre de personnes. Cette technologie a donc le potentiel de transformer plusieurs aspects du travail administratif comme la prise de décision automatisée, l’analyse prédictive, le traitement de documents et l’interaction avec les citoyens. À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. Ce rapport a pour but de décrire des cas concrets d’utilisation de l’IA dans les organisations publiques de pays de l’OCDE. L’intention est d’enrichir la connaissance et la compréhension des potentialités de l’IA en présentant un éventail de systèmes aux capacités techniques variées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Pozzana, Tony. Attitude face au risque & Assurance d'entreprise. Fondation pour une culture de sécurité industrielle, März 2015. http://dx.doi.org/10.57071/587ryp.

Der volle Inhalt der Quelle
Annotation:
Les entreprises ayant des activités industrielles à risque d’accident majeur mettent en place différentes dispositions pour traiter les risques liés à leurs installations. L’une des techniques de traitement du risque est l’assurance, qui permet à un exploitant de transférer une partie de la composante financière des pertes éventuelles à un assureur, ou un groupe d’assureurs. En contrepartie du paiement d’une prime d’assurance, les assureurs garantissent que les victimes éventuels des sinistres seront compensées et facilitent un traitement rapide des dossiers de demande d’indémnisation. Malgré l’importance du rôle de l’assurance d’entreprise dans la gestion des risques industriels, cette activité reste relativement peu connue. Dans ce document, l’auteur cherche à décrypter le rôle de l’assurance dans le management des risques, en nous présentant les différents intervenants (risk manager, assureur, réassureur, courtier, expert d’assurance, ingénieur préventionniste), les types de contrats qui peuvent être souscrits, et la typologie de garanties disponibles sur le marché de l’assurance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mbaye, Safiétou, Rémi Kouabenan und Philippe Sarnin. L'explication naïve et la perception des risques comme des voies pour améliorer les pratiques de REX: des études dans l'industrie chimique et l'industrie nucléaire. Fondation pour une culture de sécurité industrielle, September 2009. http://dx.doi.org/10.57071/311rex.

Der volle Inhalt der Quelle
Annotation:
L’analyse de l’accident soulève de nombreux enjeux dont le poids préfigure également des biais possibles dans l’explication causale et laisse apparaître que l’explication de l’accident peut difficilement être neutre. En l’occurrence, les difficultés rencontrées dans la conduite du REX relèvent en grande partie de conflits qui surviennent lors des analyses d’accidents. Ce document présente quatre études de terrain qui visaient à comprendre l’origine des conflits entre les acteurs du REX lors des analyses d’accidents et à mieux appréhender le rôle de la perception des risques et du climat de sécurité dans la motivation des acteurs à s’impliquer davantage dans les pratiques de REX. Les études sont conduites dans l’industrie chimique et l’industrie nucléaire et portent sur plus de 1000 agents de tous niveaux hiérarchiques (cadres, agents de maîtrise, techniciens, ouvriers) et tous domaines d’activité (prévention, production, maintenance, qualité). La méthodologie repose sur des entretiens, des observations de comité REX, une expérimentation et l’administration de deux questionnaires. Il en ressort que les démarches de REX sont davantage subies qu’elles ne sont portées par les responsables du traitement des accidents en raison des coûts qu’elles engendrent en temps et en énergie, mais aussi à cause du manque d’opérationnalité des règles de traitement des accidents. Il s’avère ensuite que l’absence de dialogue autour des causes des accidents entretient des doutes sur la crédibilité du REX auprès des opérateurs. Mais avant tout, il est clairement établi que la peur d’endosser la responsabilité de l’accident détermine fortement l’explication de l’accident qui devient notamment très défensive. Par exemple, les cadres et les ouvriers se renvoient systématiquement la causalité des accidents: plus ils se sentent menacés par l’analyse d’accident, plus ils en attribuent la survenue à des facteurs internes à l’autre groupe hiérarchique. Les études révèlent également comment les croyances sur les risques conduisent les individus à être plus attentifs au REX sur les accidents directement liés au cœur de métier de leur industrie et moins attentifs au REX sur les accidents de la vie courante, pourtant plus nombreux et plus graves. Enfin, nous montrons en quoi un bon climat de sécurité peut favoriser l’implication des acteurs dans les pratiques de REX.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Dudley, J. P., und S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Der volle Inhalt der Quelle
Annotation:
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, Oktober 2023. http://dx.doi.org/10.54932/ryht5065.

Der volle Inhalt der Quelle
Annotation:
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie