Siga este enlace para ver otros tipos de publicaciones sobre el tema: Traitement de documents.

Tesis sobre el tema "Traitement de documents"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Traitement de documents".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Blibech, Kaouther. "L'horodatage sécurisé des documents électroniques". Pau, 2006. http://www.theses.fr/2006PAUU3010.

Texto completo
Resumen
L'horodatage est une technique qui permet de garantir l'existence d'un document à une date bien déterminée. Le développement de systèmes d'horodatage sûrs correspond à un grand besoin dans beaucoup de domaines, notamment pour les soumissions de brevets, les votes électroniques, le commerce électronique et la non répudiation des signatures digitales. Dans les systèmes d'horodatage sécurisés, une ou plusieurs autorités d'horodatage traitent les requêtes d'horodatage et fournissent les preuves permettant de garantir que les requêtes ont été correctement horodatées. Cette thèse nous a permis d'élaborer deux systèmes d'horodatage sécurisé. Le premier système utilise un dictionnaire authentifié basé sur les skips listes parfaites où seul l'ajout en fin de liste est autorisé. Nous montrons que notre système d'horodatage présente de meilleures performances que les systèmes existants. Le second système d'horodatage que nous présentons est un système distribué de type k parmi n. Nous montrons d'abord que ce type de systèmes n'est pas sécurisé si les autorités qui le forment n'utilisent pas de protocoles d'horodatage sécurisés, et nous présentons ensuite un nouveau système d'horodatage distribué qui est sécurisé
Timestamping is a technique for providing proof-of-existence of a message/document at a given time. Timestamping is mandatory in many domains like patent submissions, electronic votes, electronic commerce and non-repudiation of digital signatures. In secure timestamping systems, one or several timestamping authorities process timestamping requests and provide formal proofs in order to guarantee that requests were correctly timestamped. In this thesis, we provide two secure timestamping systems. The first one uses an authenticated totally ordered append-only dictionary based on perfect skip lists. We show that our timestamping scheme has better performances than existing ones. The second one is a distributed timestamping scheme of type k among n. We first prove that this type of distributed timestamping systems is not secure if the used timestamping authorities do not use secure timestamping protocols. We then provide a new distributed timestamping scheme which is secure
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Benjelil, Mohamed. "Analyse d'images de documents complexes et identification de scripts : cas des documents administratifs". La Rochelle, 2010. http://www.theses.fr/2010LAROS299.

Texto completo
Resumen
Ce document présente nos travaux sur les méthodes d'analyse d'images de documents multilingues multi-script : cas des documents administratifs à l'aide d'une approche texture. Deux thèmes sont abordés: (1) segmentation d'images de documents; (2) identification de scripts Arabe et Latin imprimés et / ou manuscrits. Les approches développés concernent le flux de documents tout venant dont la particularité est qu'il n'obéit pas à un modèle bien déterminé. Le premier chapitre présente la problématique et l'état de l'art de la segmentation et l'identification de script dans les documents complexes. Le second chapitre est consacré au développement d'outils méthodologiques pour la segmentation d'images de documents en régions. Dans le troisième chapitre nous présentons l'application de notre approche sur la segmentation des documents administratifs. Dans le quatrième chapitre nous présentons l'application de notre approche sur l'identification de script Arabe et Latin imprimés et/ ou manuscrits. Trois objectifs distincts sont envisagés: (1) la segmentation complète de l'image, (2) l'identification du script du contenu textuel de l'image du document, (3) la possibilité d'extraire un objet particulier dans l'image. L'approche adoptée est basée sur la classification des régions à l'aide des caractéristiques extraites de la décomposition en pyramide orientale. Les résultats obtenus au cours de cette thèse convergent, tous, pour démontrer la capacité des approches proposés à l'analyse et à la caractérisation d'images de documents complexes. Des exemples d'application, des tests de performance et des études comparatives sont ensuites présentées
This thesis describes our work in the field of multilingual multi-script complex document image segmentation: case of official documents. We proposed texture-based approach. Two different subjects are presented: (1) document image segmentation; (2) Arabic and Latin script identification in printed ant/ or handwriten types. The developed approaches concern the flow of documents that do not obey to a specific model. Chapter 1 presents the problematic and state of the complex document image segmentation and script identification. The work described in chapter 2 aimed at finding new models for complex multilingual multi-script document image segmentation. Algorythms have been developed for the segmentation of document images into homogeneous regions, identifying the script of textual blocs contained in document image and also can segment out a particular object in an image. The approach is based on classification on text and non text regions by mean of steerable pyramid features. Chapter 3 describes our work on official documents images segmentation based on steerable pyramid features. Chapter 4 describes our work on Arabic and Latin script identification in printed and/ or handwritten types. Experimental results shows that the proposed approaches perform consistently well on large sets of complex document images. Examples of application, performance tests and comparative studies are also presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Xu, Zhiwu. "Polymorphisme paramétrique pour le traitement de documents XML". Paris 7, 2013. http://www.theses.fr/2013PA077030.

Texto completo
Resumen
XML (eXtensible Markup Language) est un format standard pour l'échange de données semi-structurées, qui est utilisé dans les services web, les bases de données, et comme format de sérialisation pour échanger des données entre applications. Afin d'avoir un meilleur traitement de données XML, plusieurs langages statiquement typés pour XML ont été re��cemment définis, tels XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamIDuce. Ces langages peuvent vérifier si un programme n'engendra d'erreurs de types à l'exécution. Mais la plupart de ces langages n'incluent pas le polymorphisme paramétrique ou l'incluent sous une forme très limitée. Cependant, le traitement de données XML nécessite du polymorphisme paramétrique, c'est pourquoi il a été demandé et discuté à plusieurs reprises dans divers groupes de travail de standardisation (par exemple, RELAX-NG et XQuery). Nous étudions dans cette thèse les techniques pour étendre par le polymorphisme paramétrique les langages de traitement XML. Notre solution se déroule sur deux étapes : (i) nous définissons et étudions une relation de sous-typage polymorphe sémantique pour un système de type avec types récursifs, types des produits, types des flèches, et types des ensemblistes (c'est-à-dire, l'union, l'intersection et la négation) ; et (ii) nous concevons et étudions un langage fonctionnel d'ordre supérieur qui tire pleinement parti des nouvelles fonctionnalités du système de type. La solution que nous proposons dans cette thèse est générale. Ainsi elle a des domaines d'application autres que les langages pour le traitement de données XML
XML (eXtensible Markup Language) is a current standard format for exchanging semi-structured data, which has been applied to web services, database, research on formal methods, and so on. For a better processing of XML, recently there emerge many statically typed functional languages, such as XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamIDuce and so on. But most of these languages lack parametric polymorphism or present it in a limited form. While parametric polymorphism is needed by XML processing, and it has repeatedly been requested to and discussed in various working groups of standards (e. G. , RELAX NG and XQuery). We study in this thesis the techniques to extend parametric polymorphism into XML processing languages. Our solution consists of two parts : a definition of a polymorphic semantic subtyping relation and a definition of a polymorphic calculus. In the first part, we define and study a polymorphic semantic subtyping relation for a type system with recursive, product and arrow types and set-theoretic type connectives (i. E. , union, intersection and negation). We introduce the notion of "convexity" on which our solution is built up and prove there exists at least one model that satisfies convexity. We also propose a sound, complete and decidable subtyping algorithm. The second part is devoted to the theoretical definition of a polymorphic calculus, which takes advance of the subtyping relation. The novelty of the polymorphic calculus is to decorate lambda-abstractions with sets of type-substitutions and to lazily propagate type-substitutions at the moment of the reduction. The second part also explores a semi-decidable local inference algorithm to infer the set of type substitutions as well as the compilation of the polymorphic calculus into a variety of CDuce
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Lecluze, Charlotte. "Alignement de documents multilingues sans présupposé de parallélisme". Caen, 2011. http://www.theses.fr/2011CAEN2058.

Texto completo
Resumen
Aujourdfhui les travaux exploitant des documents multilingues se tournent vers lfétude de textes comparables alors même que tous les aspects des documents parallèles nfont pas été étudiés ni tous les verrous liés aux méthodes dfalignement levés, notamment leur mise en forme et les cas dfinversions et de suppressions au niveau sur-phrastique. Ainsi, nous ne disposons pas à ce jour dfoutils permettant de valoriser cette mine dfinformations, dfen extraire aussi massivement qufenvisagé des ressources pourtant utiles tant aux traducteurs qufaux lexicologues. Nous présentons ici une méthode sans présupposé de parallélisme entre les différents volets dfun multidocument. Lfidée essentielle de ces travaux est la suivante : entre deux volets dfun multidocument, il existe des grains qui maximisent le parallélisme, nous les des multizones. Celles-ci peuvent recouvrir plusieurs réalités : documents, série de paragraphes, paragraphes, propositions. . . Ces multizones ne sont pas délimitables de çon ad hoc, il convient de le faire en contexte et de façon indépendante des langues. À ces fins, nous combinons plusieurs procédés originaux : étudier chaque multidocument au travers dfune collection de multidocuments, exploiter la mise en forme des documents par traitement direct du source ou encore traiter des chaînes de caractères répétées plutôt que des mots. Notre objectif est double : appariement et alignement, i. E. Création de ressources et analyse de documents. Cette méthode requiert peu de supervision, lfajout dfune nouvelle ou le changement de corpus dfentrée ne représentent pas un coût important
Today the works using multilingual documents are turning to the study of comparable texts even though all aspects of parallel documents have not been studied nor alignment method locks raised, including their formatting and the cases of inversions and deletions at macro level. Thus, to date there is no tools to take benefit from this wealth of information, to extract resources as massively as envisaged, despite their usefulness both for translators and lexicologists. . . We present a method without assumption of parallelism between the different components of a multiple document. The basic idea of this work is: between two components of a multi-document, there are grains that maximize the parallelism, we call them multizones. They can cover several realities: document, series of paragraphs, paragraphs, proposals. . . Their boundaries can not be defined in an ad hoc way, it should be done in context and independently of languages. To this end, we combine several original processes: study each multiple document through a collection of multi-document, use the formatting of documents by direct processing of source or process repeated strings rather than words. The purpose of this work is twofold: matching and alignment, i. E. Resource creation and document analysis. This method requires little supervision. Add a new language or change corpus of entry do not represent a significant cost
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Alhéritière, Héloïse. "Extraction de la mise en page de documents : application à la sécurisation des documents hybrides". Electronic Thesis or Diss., Université Paris Cité, 2019. http://www.theses.fr/2019UNIP5201.

Texto completo
Resumen
Les documents numériques sont de plus en plus présents dans notre société. Ce format a de nombreux avantages, que ce soit pour la diffusion ou la sauvegarde de documents. La diffusion permet de transmettre facilement des documents, mais ne permet pas de garantir l'intégrité de ceux-ci, ni pour ceux qui le reçoivent, ni pour ceux qui le diffusent. Durant leur cycle de vie, les documents passent généralement d'un état dématérialisé à un état matérialisé et inversement. Les deux formats possèdent leurs avantages et leurs inconvénients, ce qui justifie qu’un même document puisse se retrouver dans les deux états. Lorsque l'on passe d'un format matérialisé à celui dématérialisé, nous obtenons une image, un ensemble de pixels qu’il faut interpréter. Les différentes instances d'un même document que nous pouvons obtenir en scannant ou en imprimant plusieurs fois celui-ci définissent le « document hybride ». Un premier niveau de comparaison peut être réalisé en analysant la mise en page du document. Les méthodes d'extraction de la mise en page sont nombreuses et nous les analysons pour mettre en évidence leurs défauts et leur adéquation à des catégories bien particulières de document. Aussi nous avons développé une méthodologie qui s'appuie sur de nouvelles transformées permettant d'innover dans le mode de représentation d'une image de document. Les segments de droites sont au centre de notre travail. Nous pouvons traiter des documents divers sans avoir recours à un apprentissage supervisé. Nous innovons aussi au niveau de l'évaluation de notre proposition. En effet, dans la perspective de la sécurisation d'un document hybride, à la précision d'une décomposition de la page, nous adjoignons la nécessité de résultats stables pour toutes les instances d'un document
Digital documents are more and more present in our society. This format has many advantages, whether for distribution or document backup. Distribution allows for an easy transmission of documents but do not guarantee their integrity neither for the receiver nor for the sender. Throughout their life cycle, documents go from a dematerialized state to a materialized state and vice versa. The two formats have their own advantages and disadvantages, justifying the fact that a document can be found in the two formats. When we go from a materialized format to a dematerialized one we get an image, a set of pixels that need to be interpreted. The different instances of a same document obtained by scanning or printing it many times define the "hybrid document". A first level of comparison can be realized by analyzing the document layout. Many layout extraction methods exist. We analyze them to highlight their default and their adequacy to particular category of documents. We have also developed a methodology based on new transforms thus innovating in the representation of a document image. We can process various documents without needing supervised learning. We also adopt a more innovative approach in our evaluation method. Thus, for the purpose of securing hybrid document, we associate to the accuracy of a page decomposition the necessity of stable results for every instance of a document
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Xu, Zhiwu. "POLYMORPHISME PARAM’TRIQUE POUR LE TRAITEMENT DE DOCUMENTS XML". Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00858744.

Texto completo
Resumen
XML (eXtensible Markup Language) est un format standard pour l'échange de données semi-structurées, qui est utilisé dans services web, les bases de données, et comme format de sérialisation pour échanger des données entre applications. Afin d'avoir un meilleur traitement de données XML, plusieurs langages statiquement typés pour XML ont été récemment définis, tels XDuce, CDuce, XJ, XTatic, XACT, XHaskell, OCamlDuce. Ces langages peuvent vérifier si un programme n'engendra d'erreurs de types à l'exécution. Mais la plupart de ces langages n'incluent pas le polymorphisme paramétrique ou l'incluent sous un forme très limitée. Cependant, le traitement de données XML nécessite du polymorphisme paramétrique, c'est pourquoi il a été demandé et discuté à plusieurs reprises dans diverses groupes de travail de standardisation (par example, RELAX-NG et XQuery). Nous étudions dans cette thèse les techniques pour étendre par le polymorphisme paramétrique les langages de traitement XML. Notre solution se deroule sur deux étapes: (i) nous définissons et étudions une relation de sous-typage polymorphe sémantique pour un système de type avec types récursifs, types des produits, types des flèches, et types des ensemblistes (c'est-à-dire, l'union, l'intersection et la négation); et (ii) nous concevons et étudions un langage fonctionnel d'ordre supérieur qui tire pleinement parti des nouvelles fonctionnalités du système de type. La solution que nous proposons dans cette thèse est générale. Ainsi elle a des domaines d'application autres que les langages pour le traitement de données XML.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Arias, Aguilar José Anibal. "Méthodes spectrales pour le traitement automatique de documents audio". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/436/.

Texto completo
Resumen
Les disfluences sont un phénomène apparaissant fréquemment dans toute production orale spontanée ; elles consistent en l'interruption du cours normal du discours. Elles ont donné lieu à de nombreuses études en Traitement Automatique du Langage Naturel. En effet, leur étude et leur identification précise sont primordiales, sur les plans théorique et applicatif. Cependant, la majorité des travaux de recherche sur le sujet portent sur des usages de langage quotidien : dialogues " à bâtons rompus ", demandes d'horaire, discours, etc. Mais qu'en est-il des productions orales spontanées produites dans un cadre contraint ? Aucune étude n'a à notre connaissance été menée dans ce contexte. Or, on sait que l'utilisation d'une " langue de spécialité " dans le cadre d'une tâche donnée entraîne des comportements spécifiques. Notre travail de thèse est consacré à l'étude linguistique et informatique des disfluences dans un tel cadre. Il s'agit de dialogues de contrôle de trafic aérien, aux contraintes pragmatiques et linguistiques. Nous effectuons une étude exhaustive des phénomènes de disfluences dans ce contexte. Dans un premier temps nous procédons à l'analyse fine de ces phénomènes. Ensuite, nous les modélisons à un niveau de représentation abstrait, ce qui nous permet d'obtenir les patrons correspondant aux différentes configurations observées. Enfin nous proposons une méthodologie de traitement automatique. Celle-ci consiste en plusieurs algorithmes pour identifier les différents phénomènes, même en l'absence de marqueurs explicites. Elle est intégrée dans un système de traitement automatique de la parole. Enfin, la méthodologie est validée sur un corpus de 400 énoncés
The disfluencies are a frequently occurring phenomenon in any spontaneous speech production; it consists of the interruption of the normal flow of speech. They have given rise to numerous studies in Natural Language Processing. Indeed, their study and precise identification are essential, both from a theoretical and applicative perspective. However, most of the researches about the subject relate to everyday uses of language: "small talk" dialogs, requests for schedule, speeches, etc. But what about spontaneous speech production made in a restrained framework? To our knowledge, no study has ever been carried out in this context. However, we know that using a "language specialty" in the framework of a given task leads to specific behaviours. Our thesis work is devoted to the linguistic and computational study of disfluencies within such a framework. These dialogs concern air traffic control, which entails both pragmatic and linguistic constraints. We carry out an exhaustive study of disfluencies phenomena in this context. At first we conduct a subtle analysis of these phenomena. Then we model them to a level of abstraction, which allows us to obtain the patterns corresponding to the different configurations observed. Finally we propose a methodology for automatic processing. It consists of several algorithms to identify the different phenomena, even in the absence of explicit markers. It is integrated into a system of automatic processing of speech. Eventually, the methodology is validated on a corpus of 400 sentences
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Janod, Killian. "La représentation des documents par réseaux de neurones pour la compréhension de documents parlés". Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0222/document.

Texto completo
Resumen
Les méthodes de compréhension de la parole visent à extraire des éléments de sens pertinents du signal parlé. On distingue principalement deux catégories dans la compréhension du signal parlé : la compréhension de dialogues homme/machine et la compréhension de dialogues homme/homme. En fonction du type de conversation, la structure des dialogues et les objectifs de compréhension varient. Cependant, dans les deux cas, les systèmes automatiques reposent le plus souvent sur une étape de reconnaissance automatique de la parole pour réaliser une transcription textuelle du signal parlé. Les systèmes de reconnaissance automatique de la parole, même les plus avancés, produisent dans des contextes acoustiques complexes des transcriptions erronées ou partiellement erronées. Ces erreurs s'expliquent par la présence d'informations de natures et de fonction variées, telles que celles liées aux spécificités du locuteur ou encore l'environnement sonore. Celles-ci peuvent avoir un impact négatif important pour la compréhension. Dans un premier temps, les travaux de cette thèse montrent que l'utilisation d'autoencodeur profond permet de produire une représentation latente des transcriptions d'un plus haut niveau d'abstraction. Cette représentation permet au système de compréhension de la parole d'être plus robuste aux erreurs de transcriptions automatiques. Dans un second temps, nous proposons deux approches pour générer des représentations robustes en combinant plusieurs vues d'un même dialogue dans le but d'améliorer les performances du système la compréhension. La première approche montre que plusieurs espaces thématiques différents peuvent être combinés simplement à l'aide d'autoencodeur ou dans un espace thématique latent pour produire une représentation qui augmente l'efficacité et la robustesse du système de compréhension de la parole. La seconde approche propose d'introduire une forme d'information de supervision dans les processus de débruitages par autoencodeur. Ces travaux montrent que l'introduction de supervision de transcription dans un autoencodeur débruitant dégrade les représentations latentes, alors que les architectures proposées permettent de rendre comparables les performances d'un système de compréhension reposant sur une transcription automatique et un système de compréhension reposant sur des transcriptions manuelles
Application of spoken language understanding aim to extract relevant items of meaning from spoken signal. There is two distinct types of spoken language understanding : understanding of human/human dialogue and understanding in human/machine dialogue. Given a type of conversation, the structure of dialogues and the goal of the understanding process varies. However, in both cases, most of the time, automatic systems have a step of speech recognition to generate the textual transcript of the spoken signal. Speech recognition systems in adverse conditions, even the most advanced one, produce erroneous or partly erroneous transcript of speech. Those errors can be explained by the presence of information of various natures and functions such as speaker and ambience specificities. They can have an important adverse impact on the performance of the understanding process. The first part of the contribution in this thesis shows that using deep autoencoders produce a more abstract latent representation of the transcript. This latent representation allow spoken language understanding system to be more robust to automatic transcription mistakes. In the other part, we propose two different approaches to generate more robust representation by combining multiple views of a given dialogue in order to improve the results of the spoken language understanding system. The first approach combine multiple thematic spaces to produce a better representation. The second one introduce new autoencoders architectures that use supervision in the denoising autoencoders. These contributions show that these architectures reduce the difference in performance between a spoken language understanding using automatic transcript and one using manual transcript
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Lemaitre, Aurélie Camillerapp Jean. "Introduction de la vision perceptive pour la reconnaissance de la structure de documents". Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lemaitre.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Carmagnac, Fabien. "Classification supervisée et semi-supervisée : contributions à la classification d’images et de documents". Rouen, 2005. http://www.theses.fr/2005ROUES058.

Texto completo
Resumen
Cette thèse propose des contributions à la problématiques de la classification supervisée et semi-supervisée des images de documents sous des contraintes telles qu’un faible nombre d’exemples d’apprentissage, la sélection dynamique de caractéristiques pertinentes et le temps de classification. Le premier chapitre dresse une introduction générale de la problématique en exposant les composants d’une chaîne de traitement des images de document. Le second chapitre propose une stratégie de classification supervisée basée sur les notions de point de vue dans plusieurs espaces caractéristiques et d’espace de distances induit. Le troisième chapitre propose une méthode de classification semi-supervisée se basant sur une collaboration entre les dendogrammes obtenus par classification ascendante hiérarchique à partir de plusieurs espaces de caractéristiques. Enfin, le dernier chapitre dresse une conclusion et ouvre des perspectives pour la poursuite de ce travail
This manuscript proposes some contributions to the supervised and semi-supervised document image classification under contraints such as a low number of training samples, dynamic feature selection and classification time. The first chapter draws up a general introduction of problems by exposing the components of a document image processing system. The second chapter proposes a strategy for the supervised classification based on the concepts from point of view in several feature spaces and induced distance space. The third chapter proposes a method for the semi-supervised classification based on a collaboration between the dendogrammes obtained by ascending hierarchical clustering using several feature spaces. Lastly, the last chapter draws up a conclusion and opens on prospects for the continuation for this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Adam, Sébastien. "Documents, Graphes et Optimisation Multi-Objectifs". Habilitation à diriger des recherches, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00671168.

Texto completo
Resumen
Les travaux qui sont abordés dans cette habilitation sont à la confluence de plusieurs de ces domaines de recherche. Ils concernent deux aspects principaux. Le premier est relatif à la reconnaissance structurelle de formes, en proposant deux contributions liées respectivement à la classification supervisée de graphes et à la recherche d'isomorphismes de sous-graphes. Le second concerne la prise en compte d'objectifs multiples en analyse d'images de documents, tant pour l'évaluation des performances des systèmes que pour leur optimisation. Dans les deux cas, les travaux sont appliqués à des problèmes d'analyse de documents, pour la reconnaissance et la localisation de symboles et pour la reconnaissance de courriers manuscrits. Nous proposons dans ce mémoire de faire une synthèse de ces contributions et de nos perspectives dans ces domaines, en positionnant celles-ci par rapport à l'état de l'art des différentes problématiques abordées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Lebourgeois, Frank. "Approche mixte pour la reconnaissance des documents imprimes". Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0013.

Texto completo
Resumen
L'étude présente un système de reconnaissance multifonte pour documents imprimés, utilisant des informations contextuelles concernant la typographie, la structure du document et la syntaxe. Tout d'abord une méthode ascendante rapide a été réalisée pour séparer le texte des images et reconnaître la structure logique du document. Une approche mixte est utilisée pour reconnaître les caractères isolés. Le premier étage réalise une préclassification automatique des formes identiques de caractères à l' a. Ide d'une construction dynamique d'une bibliothèque de formes. La forte redondance des images des caractères imprimés justifie cette approche. Le second étage reconnaît structurellement les modèles de caractères construits précédemment. Un étage à la fois syntaxique et statistique permet un taux de reconnaissance élevé
A recognition system for multi font printed documents using contextual informations about typography, structure of document and syntax, has been developed. First, a quick bottom up method to separate text from image and recognize logical structure of documents has been achieved. A mixed approach has been used to recognize individual characters. A first stage realizes a compaction at the character level compared to a dynamically built librairy of shapes. The high redundancy of character's image in printed document justifies this approach. A second stage structurally recognizes the previously built models of characters. A mixed syntaxic and statistic stage is used simultanous. It o perform a high recognition rate
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Pietriga, Emmanuel. "Environnements et langages de programmation visuels pour le traitement de documents structurés". Phd thesis, Grenoble INPG, 2002. http://tel.archives-ouvertes.fr/tel-00125472.

Texto completo
Resumen
L'adoption du langage XML dans de nombreux domaines pour la représentation des documents et des données a simplifié les manipulations associées aux documents du World Wide Web en offrant des solutions d'analyse et de traitement génériques. Ces manipulations se traduisent souvent par des opérations de transformation de la structure et du contenu des documents et jouent un rôle essentiel dans la chaîne de traitement documentaire. Les solutions existantes pour la transformation de documents XML sont pour la plupart basées sur un langage textuel, et même si certains outils proposent une interface graphique au-dessus de langages tels que XSLT, les transformations sont toujours spécifiées textuellement. L'objectif de ce travail est d'étudier l'intérêt des représentations graphiques de structures logiques et des techniques de programmation visuelle pour la visualisation et la transformation des documents et classes de documents XML. C'est dans ce cadre qu'a été conçu VXT (Visual XML Transformer), un langage de programmation visuel pour la spécification de transformations de documents XML. Cette thèse est articulée en deux parties principales : -une partie théorique, constituée dune étude des solutions existantes pour la manipulation de documents XML, dun état de lart traitant des techniques de programmation visuelle, et de la définition théorique du langage VXT, incluant une étude formelle de la syntaxe visuelle et de la fonction de traduction de programmes VXT en feuilles de transformation XSLT. -une partie pratique, dans laquelle sont détaillés les différents outils développés dans le cadre de ce travail, à savoir une boîte à outils pour la création dinterfaces graphiques zoomables et deux des applications reposant sur celle-ci et constituant le cur de ce travail : l'environnement de développement associé au langage VXT défini dans la partie précédente et IsaViz, un environnement pour la visualisation et l'édition de méta-données structurées RDF.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Doucy, Jérémie. "Méthodologie pour l’orchestration sémantique de services, application au traitement de documents multimédia". Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0014.

Texto completo
Resumen
Après un état de l'art complet nous avons détaillé notre approche de services sémantiques utilisant une méthode innovante pour la composition de services, les patrons de chaînes de traitements. Notre approche est constituée d'un annuaire sémantique hybride proposant différents niveaux de correspondances entre services, de règles de compositions automatiques dans le cas où une demande de services n'est pas fructueuse et enfin d'un moteur d'exécution supportant la résolution et la composition dynamique de services. Par la suite nous avons défini une méthodologie innovante, basée sur l'utilisation de taxonomies de services permettant de peupler rapidement un annuaire sémantique de services. Pour ce faire, nous avons mis au point une ontologie de haut niveau qui permet de lier la classe d'une taxonomie avec un service abstrait annoté sémantiquement. Enfin, nous avons évalué notre prototype à partir des chaînes de traitement mises en place dans les plate-formes déployées par Cassidian
After a complete state of the art we detailed our semantic services approach which uses an innovative method for services composition: processing chains patterns. Our approach is composed on an hybrid semantic servicers registry which propose different levels of matching between services, some composition rules when the matching phase failde and an execution engine which is able to dynamically resolve and com^pose services. In order to solve the service regitry population issue, we have designed an upper ontology, which enables links between a service taxonomy class with a semantically annotated abstract service. Finally, we have evaluated our prototype using real processing chains used by Cassidian platforms
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Grenier, Vincent. "Contribution à l'interprétation automatique de documents techniques : une approche système". Rouen, 2001. http://www.theses.fr/2001ROUES023.

Texto completo
Resumen
Les travaux présentés dans ce mémoire ont pour objectif la conception d'une approche système adaptable et évolutive, pour l'interprétation de documents techniques. L'application proposée concerne le traitement de plans de l'itinéraire du réseau de France Télécom. L'approche mise en œuvre est basée sur une modélisation des connaissances nécessaires à un système pour interpréter un document. Cette modélisation permet de représenter de façon explicite les connaissances relatives aux données et à leur voisinage, ainsi que celles relatives à la stratégie d'interprétation. L'approche est également basée sur un système multi-agents qui permet de gérer dynamiquement la stratégie d'interprétation. Chaque agent est autonome et communiquant. Il est chargé d'appliquer une méthode de construction de données en collaborant avec les autres. La stratégie d'interprétation de documents est basée sur une approche mixte. Elle débute par l'expression des besoins de l'utilisateur sous la forme d'une intention de construction. La partie descendante de l'approche est caractérisée par la propagation de cette intention. Au cours de cette propagation, chaque agent négocie avec d'autres la construction de données nécessaires à son travail. Ils élaborent ainsi dynamiquement la stratégie de construction. La partie ascendante de l'approche concerne la construction de données par les agents. Elle exploite pour cela la stratégie construite au cours de la partie descendante. A haut niveau, la cohérence des données construites est évaluée par rapport au modèle de connaissances. Cette évaluation permet aux agents d'estimer la robustesse des données produites. Le système peut ensuite remettre en cause les données évaluées comme incohérentes pour les rendre cohérentes. L'autonomie des agents et la gestion des données construites permet l'émission d'hypothèses multiples. Il est ainsi possible de mettre en concurrence des agents et également d'interpréter de différentes façons une même zone de l'image. En utilisant leurs connaissances, les agents peuvent ensuite fusionner les données construites et sélectionner les plus cohérentes. Enfin, l'implémentation du système exploite une base données et des outils logiciels permettant de le répartir sur différentes machines, quel que soit l'environnement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Bossard, Aurélien. "Contribution au résumé automatique multi-documents". Phd thesis, Université Paris-Nord - Paris XIII, 2010. http://tel.archives-ouvertes.fr/tel-00573567.

Texto completo
Resumen
Que ce soit pour des professionnels qui doivent prendre connaissance du contenu de documents en un temps limité ou pour un particulier désireux de se renseigner sur un sujet donné sans disposer du temps nécessaire pour lire l'intégralité des textes qui en traitent, le résumé est une aide contextuelle importante. Avec l'augmentation de la masse documentaire disponible électroniquement, résumer des textes automatiquement est devenu un axe de recherche important dans le domaine du traitement automatique de la langue. La présente thèse propose une méthode de résumé automatique multi-documents fondée sur une classification des phrases à résumer en classes sémantiques. Cette classification nous permet d'identifier les phrases qui présentent des éléments d'informations similaires, et ainsi de supprimer efficacement toute redondance du résumé généré. Cette méthode a été évaluée sur la tâche "résumé d'opinions issues de blogs" de la campagne d'évaluation TAC 2008 et la tâche "résumé incrémental de dépêches" des campagnes TAC 2008 et TAC 2009. Les résultats obtenus sont satisfaisants, classant notre méthode dans le premier quart des participants. Nous avons également proposé d'intégrer la structure des dépêches à notre système de résumé automatique afin d'améliorer la qualité des résumés qu'il génère. Pour finir, notre méthode de résumé a fait l'objet d'une intégration à un système applicatif visant à aider un possesseur de corpus à visualiser les axes essentiels et à en retirer automatiquement les informations importantes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Hébert, David. "Champs aléatoires conditionnels pour l'extraction de structures dans les images de documents". Rouen, 2013. http://www.theses.fr/2013ROUES029.

Texto completo
Resumen
Les travaux réalisées dans cette thèse s'inscrivent dans le cadre du développement d'une chaîne d'analyse automatique des archives du "Journal de Rouen", au sein du projet PlaIR (Plateforme d'Indexaion Régionale). Nos travaux s'appuient sur l'exploitation des modèles de champs aléatoires conditionnels (CAC), des modèles graphiques discriminants particulièrement bien adaptés à la tâche d'extraction d'information qui nous intéresse. Dans une première contribution, nous proposons d'adapter ce modèle au cadre de l'analyse d'images où les descripteurs sont numériques. Une stratégie de quantification multi-échelles de descripteurs numériques est proposée afin d'identifier des entités structurantes dans les journaux. Ces entités sont utilisées par une stratégie de reconstruction des articles. Cette contribution a donné lieu à une intégration dans la chaîne de production de documents pour la plateforme d'indexation PlaIR. La seconde contribution exploite le modèle de champ aléatoire conditionnel pour proposer un schéma d'apprentissage générique de combinaison d'experts permettant de réaliser des tâches plus complexes d'extraction d'information dans les images de documents. Un couplage bi-dimensionnel de champs aléatoires conditionnels est proposé. Ce schéma est appliqué avec succès à l'extraction des zones textuelles et graphiques dans des images de documents contemporains ainsi que sur une tâche de binarisation de documents dégradés. Les expériences réalisées montrent que le modèle de couplage bidimensionnel de champs aléatoires conditionnels proposé peut constituer un opérateur de combinaison spatialisée d'experts tout à fait pertinent et générique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

En, Sovann. "Détection de patterns dans les documents anciens". Rouen, 2016. http://www.theses.fr/2016ROUES050.

Texto completo
Resumen
This thesis addresses the problem of retrieving and spotting patterns in historical document images. In particular, we are interested in searching for small graphical objects (20#20 pixels) in degraded, noisy and unconstrained layout document images. In addition, the hand-drawn patterns in historical document images makes our problem become even more challenging due to intra-class variabilities. Searching for generic graphical patterns in unconstrained layout document images requires an exhaustive matching at every possible size and location. This exhaustive search is not only computationally expensive but produces also usually a lot of false alarms. To overcome this problem, we propose an efficient indexing strategy based on a background removal component followed by region proposal to estimate if a given region contains or not an object. This enables us to reduce the number of sub-windows by 7 times while maintaining a high level of recall. Then, based on an exhaustive experimentation between recent feature extraction techniques, VLAD is chosen as our image representation. Finally, by observing that the conventional distance measures (e. G. Cosine) can not cope well with image variabilities, we propose an adaptive distance function learned on the fly at almost no cost and without the need of labeled data. Our historical document image retrieval system is then extended by integrating a localization component, thus turning the retrieval system into a pattern spotting system, enhancing its capability to locate more precisely objects of interest. While our system produces some meaningful results, we go beyond by coping with scalability issues. We show that we can efficiently retrieve/spot an object in less than a second in up to millions of subwindows. We also developed two other systems from these ideas. First, we show on various public datasets that our adaptive distance is more powerful than the conventional distance functions for natural scene image retrieval. Second, we show that our system can be turned into a word spotting system with only few complimentary components, thus demonstrating the robustness of the proposed method. All our experiments have been carried out on a new dataset called "DocExplore". Experiments show the robustness of our systems to retrieve/spot graphical objects in noisy and degraded document images. Finally, our last contribution is the release of our DocExplore dataset for public along with the experimental protocol and evaluation metrics to further encourage other researchers to continue tackle these problems.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Drira, Fadoua Emptoz Hubert Lebourgeois Frank. "Contribution à la restauration des images de documents anciens". Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=drira.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Lombard, Jordan. "Guidage des traitements et acceptabilité de la tablette pour la compréhension de documents multiples". Thesis, Toulouse 2, 2019. http://www.theses.fr/2019TOU20035.

Texto completo
Resumen
Cette thèse s’intéresse à l’activité des étudiants (entre autres la sélection d’information) lorsqu’ils lisent plusieurs documents textuels dans le but de développer leur point de vue critique sur un sujet ; et elle s’intéresse aux perceptions (notamment la facilité d’utilisation) des étudiants vis-à-vis de la tablette comme outil pour consulter des documents. Dans ces conditions, trois études évaluent la performance de compréhension d’étudiants suite à la lecture de plusieurs documents sur tablette avec une application innovante (e.g., affichage de plusieurs documents simultanément), selon qu’ils étudient librement les documents ou qu’ils sont guidés dans le traitement des documents. En outre, ces études évaluent comment les étudiants perçoivent la tablette comme outil pour étudier des documents, notamment s’ils jugent la tablette permet d’améliorer leur performance
This thesis focuses on students' activity (including information selection) when they read multiple textual documents in order to develop their critical perspective on a topic; and it focuses on students' perceptions (including ease of use) of the tablet as a tool for consulting documents. Under these conditions, three studies evaluate the comprehension performance of students following the reading of several documents on a tablet with an innovative application (e.g., display of several documents simultaneously), depending on whether they freely study the documents or are guided in the processing of the documents. In addition, these studies assess how students perceive the tablet as a tool for studying documents, particularly if they consider the tablet to improve their performance
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Moïn, Mohammad Shahram. "Traitement en-ligne de documents manuscrits structurés, segmentation en mots par algorithmes d'apprentissage". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0018/NQ57382.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Hatmi, Mohamed. "Reconnaissance des entités nommées dans des documents multimodaux". Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=022d16d5-ad85-43fa-9127-9f1d9d89db14.

Texto completo
Resumen
La reconnaissance des entités nommées est une sous-tâche de l’activité d’extraction d’information. Elle consiste à identifier certains objets textuels tels que les noms de personne, d’ organisation et de lieu. Le travail de cette thèse se concentre sur la tâche de reconnaissance des entités nommées pour la modalité orale. Cette tâche pose un certain nombre de difficultés qui sont inhérentes aux caractéristiques intrinsèques du traitement de l’oral (absence de capitalisation, manque de ponctuation, présence de disfluences et d’erreurs de reconnaissance. . . ). Dans un premier temps, nous étudions les spécificités de la reconnaissance des entités nommées en aval du système de reconnaissance automatique de la parole. Nous présentons une méthode pour la reconnaissance des entités nommées dans les transcription de la parole en adoptant une taxonomie hiérarchique et compositionnelle. Nous mesurons l’impact des différents phénomènes spécifiques à la parole sur la qualité de reconnaissance des entités nommées. Dans un second temps, nous proposons d’étudier le couplage étroit entre la tâche de transcription de la parole et la tâche de reconnaissance des entités nommées. Dans ce but, nous détournons les fonctionnalités de base d’un système de transcription de la parole pour le transformer en un système de reconnaissance des entités nommées. Ainsi, en mobilisant les connaissances propres au traitement de la parole dans le cadre de la tâche liée à la reconnaissance des entités nommées, nous assurons une plus grande synergie entre ces deux tâches. Nous menons différents types d’expérimentations afin d’optimiser et d’évaluer notre approche
Named entity recognition is a subtask of information extraction. It consists of identifying some textual objects such as person, location and organization names. The work of this thesis focuses on the named entity recognition task for the oral modality. Some difficulties may arise for this task due to the intrinsic characteristics of speech processing (lack of capitalisation marks, lack of punctuation marks, presence of disfluences and of recognition errors. . . ). In the first part, we study the characteristics of the named entity recognition downstream of the automatic speech recognition system. We present a methodology which allows named entity recognition following a hierarchical and compositional taxonomy. We measure the impact of the different phenomena specific to speech on the quality of named entity recognition. In the second part, we propose to study the tight pairing between the speech recognition task and the named entity recognition task. For that purpose, we take away the basic functionnalities of a speech recognition system to turn it into a named entity recognition system. Therefore, by mobilising the inherent knowledge of the speech processing to the named entity recognition task, we ensure a better synergy between the two tasks. We carry out different types of experiments to optimize and evaluate our approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Qureshi, Rashid Jalal Cardot Hubert Ramel Jean-Yves. "Reconnaissance de formes et symboles graphiques complexes dans les images de documents". Tours : SCD de l'université de Tours, 2008. http://www.applis.univ-tours.fr/theses/priv/rashid-jalal.qureshi_2732.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Delalandre, Mathieu. "Analyse des documents graphiques : une approche par reconstruction d'objets". Rouen, 2005. http://www.theses.fr/2005ROUES060.

Texto completo
Resumen
Les travaux de cette thèse concernent l'analyse des documents graphiques (plans, cartes, diagrammes,. . . ). Ces derniers répondent à de fortes relations spatiales, aussi les systèmes d'analyse s'appuient généralement sur des approches structurelles. Celles-ci reposent sur l'extraction de primitives graphiques à partir des documents et l'organisation de ces primitives au sein de structures de type graphe. Dans ce manuscrit, nous abordons plus particulièrement la problématique de la combinaison des opérateurs d'extraction. La principale difficulté en est l'échange des primitives graphiques entre les opérateurs. Nous proposons pour cela une approche originale par reconstruction d'objets. Nous présentons tout d'abord nos opérateurs d'extraction de primitives graphiques par approches région, contour et squelette. Nous développons ensuite un formalisme objet permettant la multi-représentation des formes graphiques. Nous illustrons comment les opérateurs mettent en oeuvre ce formalisme afin d'assurer l'échange des primitives graphiques, et donc leur interopérabilité. Nous utilisons nos opérateurs et ce formalisme via notre système de reconstruction d'objets. Celui-ci exploite une méthodologie objet pour la formalisation de stratégies de reconstruction et un moteur de contrôle pour leur mise en oeuvre. Nous illustrons l'intérêt (adaptabilité et performance) de notre approche au travers de quelques cas d'usage de reconnaissance de symboles sur des images de documents graphiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Bernard, Guillaume. "Détection et suivi d’événements dans des documents historiques". Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS032.

Texto completo
Resumen
Les campagnes actuelles de numérisation de documents historiques issus de fonds documentaires du monde entier ouvrent de nouvelles voies aux historiens, historiennes et spécialistes des sciences sociales. La compréhension des événements du passé se renouvelle par l’analyse de ces grands volumes de données historiques : découdre le fil des événements, tracer de fausses informations sont, entre autres, des possibilités offertes par les sciences du numérique. Cette thèse s’intéresse à ces articles de presse historique et propose, à travers deux stratégies que tout oppose, deux processus d’analyse répondant à la problématique de suivi des événements dans la presse. Un cas d’utilisation simple est celui d’une équipe de recherche en humanités numériques qui s’intéresse à un événement particulier du passé. Ses membres cherchent à découvrir tous les documents de presse qui s’y rapportent. L’analyse manuelle des articles est irréalisable dans un temps contraint. En publiant à la fois algorithmes, jeux de données et analyses, cette thèse est un premier jalon vers la publication d’outils plus sophistiqués. Nous permettons à tout individu de fouiller les fonds de presse ancienne à la recherche d’événements, et pourquoi pas, renouveler certaines de nos connaissances historiques
Current campaigns to digitise historical documents from all over the world are opening up new avenues for historians and social science researchers. The understanding of past events is renewed by the analysis of these large volumes of historical data: unravelling the thread of events, tracing false information are, among other things, possibilities offered by the digital sciences. This thesis focuses on these historical press articles and suggests, through two opposing strategies, two analysis processes that address the problem of tracking events in the press. A simple use case is for instance a digital humanities researcher or an amateur historian who is interested in an event of the past and seeks to discover all the press documents related to it. Manual analysis of articles is not feasible in a limited time. By publishing algorithms, datasets and analyses, this thesis is a first step towards the publication of more sophisticated tools allowing any individual to search old press collections for events, and why not, renew some of our historical knowledge
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Gaceb, Djamel. "Contributions au tri automatique de documents et de courrier d'entreprises". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0077/these.pdf.

Texto completo
Resumen
Ce travail de thèse s’inscrit dans le cadre du développement de systèmes de vision industrielle pour le tri automatique de documents et de courriers d’entreprises. Les architectures existantes, dont nous avons balayé les spécificités dans les trois premiers chapitres de la thèse, présentent des faiblesses qui se traduisent par des erreurs de lecture et des rejets que l’on impute encore trop souvent aux OCR. Or, les étapes responsables de ces rejets et de ces erreurs de lecture sont les premières à intervenir dans le processus. Nous avons ainsi choisi de porter notre contribution sur les aspects inhérents à la segmentation des images de courriers et la localisation de leurs régions d’intérêt en investissant une nouvelle approche pyramidale de modélisation par coloration hiérarchique de graphes ; à ce jour, la coloration de graphes n’a jamais été exploitée dans un tel contexte. Elle intervient dans notre contribution à toutes les étapes d’analyse de la structure des documents ainsi que dans la prise de décision pour la reconnaissance (reconnaissance de la nature du document à traiter et reconnaissance du bloc adresse). Notre architecture a été conçue pour réaliser essentiellement les étapes d’analyse de structures et de reconnaissance en garantissant une réelle coopération entres les différents modules d’analyse et de décision. Elle s’articule autour de trois grandes parties : une partie de segmentation bas niveau (binarisation et recherche de connexités), une partie d’extraction de la structure physique par coloration hiérarchique de graphe et une partie de localisation de blocs adresse et de classification de documents. Les algorithmes impliqués dans le système ont été conçus pour leur rapidité d’exécution (en adéquation avec les contraintes de temps réels), leur robustesse, et leur compatibilité. Les expérimentations réalisées dans ce contexte sont très encourageantes et offrent également de nouvelles perspectives à une plus grande diversité d’images de documents
This thesis deals with the development of industrial vision systems for automatic business documents and mail sorting. These systems need very high processing time, accuracy and precision of results. The current systems are most of time made of sequential modules needing fast and efficient algorithms throughout the processing line: from low to high level stages of analysis and content recognition. The existing architectures that we have described in the three first chapters of the thesis have shown their weaknesses that are expressed by reading errors and OCR rejections. The modules that are responsible of these rejections and reading errors are mostly the first to occur in the processes of image segmentation and interest regions location. Indeed, theses two processes, involving each other, are fundamental for the system performances and the efficiency of the automatic sorting lines. In this thesis, we have chosen to focus on different sides of mail images segmentation and of relevant zones (as address block) location. We have chosen to develop a model based on a new pyramidal approach using a hierarchical graph coloring. As for now, graph coloring has never been exploited in such context. It has been introduced in our contribution at every stage of document layout analysis for the recognition and decision tasks (kind of document or address block recognition). The recognition stage is made about a training process with a unique model of graph b-coloring. Our architecture is basically designed to guarantee a good cooperation bewtween the different modules of decision and analysis for the layout analysis and the recognition stages. It is composed of three main sections: the low-level segmentation (binarisation and connected component labeling), the physical layout extraction by hierarchical graph coloring and the address block location and document sorting. The algorithms involved in the system have been designed for their execution speed (matching with real time constraints), their robustness, and their compatibility. The experimentations made in this context are very encouraging and lead to investigate a wider diversity of document images
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634/document.

Texto completo
Resumen
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634.

Texto completo
Resumen
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Eglin, Véronique. "Contribution à la structuration fonctionnelle des documents imprimés : exploitation de la dynamique du regard dans le repérage de l'information". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0087.

Texto completo
Resumen
Cette thèse s'inscrit dans le domaine de l'analyse automatique d'images de documents imprimés et repose sur deux grandes thématiques à première vue sans lien, que sont la segmentation de documents et la perception visuelle humaine. Plus spécifiquement, elle développe une méthodologie de structuration de documents composites par la capture d'informations à fort pouvoir attractif. La détermination de la structure des documents en blocs homogènes et la récupération des propriétés nécessaires à leur reconnaissance se réalisent par 1' exploitation de notre mode de perception visuelle. Cette exploration est décrite par le parcours du regard, privilégiant tour à tour des zones dont la localisation ne dépend pas d'un balayage uniforme, mais d'une intention de l'observateur et des caractéristiques visuelles du document. La simulation du parcours de 1' œil sur le document que nous avons retenue traduit la segmentation que ferait un lecteur qui aborde le document sans a priori sur ce qu'il veut trouver. Les traitements se découpent en deux phases principales. La première étape, de bas niveau, est basée sur l'analyse multirésolution des propriétés géométriques des contours des régions. Elle permet une sélection rapide des zones d'intérêt et aboutit à une esquisse de structuration physique du document. La deuxième étape, de plus haut niveau, exploite les caractéristiques macroscopiques des textes liées à des conventions typographiques standards (disposition et fréquence d'apparition des lettres, police, graisse, langue. . . ), mais également significatives d'une volonté du rédacteur. Elle permet une première classification des différents types de fontes des blocs de texte. Elle constitue une amélioration des procédures de bas niveau en ajoutant une information de texture à la base de la reconnaissance des blocs. Nous proposons finalement une phase de validation de ces travaux réalisée à partir de la prise de mesures oculométriques expérimentales (sur des observateurs humains)
This work is a contribution to automatic document analysis and is based on two main themes independent on first sight: the document segmentation and the human visual perception. More specifically, it develops a methodology of document layout analysis by the exploitation of eye catching information. The reconstruction of document layout in homogeneous blacks and the retrieval of their physical properties are realized by the analysis of our visual system. This exploration is described by a scan-path, which selects alternately areas. Their location depends on the observer’s purposes and the visual characteristics of the document. In this work, we chose to simulate a particular kind of scan-paths on the documents. This scan-path expresses the segmentation of an observer, who scans a document without any prior knowledge on what should be found. The treatments are shared in two main phases. The first law-levet stage consists in analyzing geometrical properties of regions outlines. That leads to a fast selection of interest areas and results in a first sketch of physical document segmentation. The second high-level stage is based on the analysis of macroscopic features of texts, which are directly connected to standard typographic rules (arrangement and frequency of characters, type-font farnilies, boldness, language. . . ), but also significant of the editor's intention, This stage leads to a first classification of different type-font farnilies of text blacks. Thus, it improves the previous low-level processes by using textural properties of regions. Finally, we propose a validation step of this work, which is realized by oculometric measurements on human observers
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Nicolas, Stéphane. "Segmentation par champs aléatoires pour l'indexation d'images de documents". Rouen, 2006. http://www.theses.fr/2006ROUES058.

Texto completo
Resumen
Avec le développement des technologies numériques, la valorisation de notre patrimoine documentaire est devenue un enjeu majeur, qui pose des difficultés d'indexation et d'accès à l'information. L'analyse de documents peut apporter une solution mais les méthodes classiques ne sont pas suffisamment souples pour s'adapter à la variabilité rencontrée. Notre contribution porte sur l'implémentation d'un modèle de champ de Markov 2D et d'un modèle de champ aléatoire conditionnel 2D, qui permettent de prendre en compte la variabilité et d'intégrer et d'intégrer des connaissances contextuelles, en bénéficiant de techniques efficaces d'apprentissage. Les expérimentations effectuées sur des brouillons d'auteurs et sur les manuscrits de la Renaissance, montrent que ces modèles représentent une solution intéressante et que le modèle constitutionnel, de par son caractère discriminant et sa capacité naturelle à intégrer plus de caractéristiques et d'information contextuelle, offre de meilleures performances
With the development of digital technologies, the valorization of our cultural heritage is becoming a major stake, which exhibits a lot of difficulties for information indexing and retrieval. Document image analysis can bring a solution, however traditionnal methods are not flexible enough to deal with the variability found in patrimonial documents. Our contribution relates to the implementation of a 2D Markov random field model and a 2D conditional random field model, which make it possible to make variability into account and to integrate contextual knowledge, while taking benefit from machine learning techniques. Experiments on handwritten drafts and manuscripts of the Renaissance, show that these models can provide interesting solutions. Furthermore, the conditional random field model provids better results, allowing to integrate more intrinsic and contextual features in a discriminative framework, using a classifier combination approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Duong, Jean Emptoz Hubert. "Etude des Documents Imprimés Approche Statistique et Contribution Méthodologique /". Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=duong.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Brixtel, Romain. "Alignement endogène de documents, une approche multilingue et multi-échelle". Caen, 2011. http://www.theses.fr/2011CAEN2050.

Texto completo
Resumen
Cette thèse s'inscrit dans le domaine de la traduction automatique et concerne plus précisément l'alignement, c'est-à-dire l'extraction d'éléments (mots, syntagmes ou encore phrases) en relation de traduction dans des corpus parallèles. Les méthodes employées, pour aligner automatiquement ces éléments en relation de traduction, sont endogènes (sans ressources extérieures) et multi-échelles (différents niveaux d'analyse sont traités). Nous proposons une stratégie d'alignement renouvelant les approches basées sur la phrase et le mot en exploitant les niveaux sur-phrastique et sous-phrastique, respectivement l'alinéa et le chunk. L'alignement d'alinéas s'effectue via les indices de rendu visuel alors que l'alignement sous-phrastique s'intéresse à l'implication des chaînes de caractères pour un alignement de chunks. Nous montrons aussi les connexions entre l'alignement et l'aide à la détection de plagiat au sein de corpus de code source en vue de proposer une abstraction du modèle
This thesis deals with the machine translation and more precisely with feature extraction (words, phrases, sentences) which are in a translation relation in parallel corpora. The methods, applied to automatically align these elements, are endogenous (without external resources) and multi-scaled (different levels of analysis are used). We propose an alignment strategy renewing approaches based on word and sentence by using levels that overlaps sentences and subsentential levels, respectively alinea and chunk. Alinea alignment performs via visual clues while subsentential alignment is focused on charater strings for a chunk alignment. We also highlight the connexions between alignment and detection of plagiarism in order to provide an abstraction of our model
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Al-Hamdi, Ali. "Contributions à l'interprétation des documents techniques par une approche perceptive". Rouen, 1999. http://www.theses.fr/1999ROUES083.

Texto completo
Resumen
L'objectif de cette thèse est de proposer une nouvelle méthodologie permettant l'analyse et l'interprétation de documents basée sur les principes de la vision active. Une telle approche permet un couplage fort entre tous les maillons de la chaine du système visuel. Elle se distingue des approches classiques par le contrôle des paramètres visuels de la camera (mise au point, diaphragme, zoom, déplacement, etc) et l'élaboration de stratégies associées au processus de l'interprétation. Notre méthodologie propose des mécanismes de contrôle inspirés du fonctionnement du système visuel humain : préattentif et attentif. Une architecture matérielle a été mise en place permettant des tests de validation de notre approche. A partir de la proposition méthodologique, une stratégie a été mise en place permettant l'analyse d'un certain nombre de cartes cadastrales. Celle-ci a pour objectif d'analyser le document en trois niveaux hiérarchiques en respectant la sémantique des objets cadastraux : niveau global, niveau intermédiaire et niveau local. Les deux mécanismes cognitifs (préattentif et attentif) sont mis en place et coopèrent à chaque niveau en intégrant les saccades de la camera. Le processus préattentif a pour objectif de segmenter et d'extraire des indices visuels et d'émettre des hypothèses sur la structuration de l'image. Ces indices visuels seront utilisés par le processus attentif afin d'analyser, de reconstruire et de vérifier la structure d'un objet particulier. Les résultats de cette analyse attentionnelle coopérative mettent en évidence des objets incohérents à cause de plusieurs facteurs internes et externes. Cette stratégie permet de détecter et de résoudre ces incohérences, de façon autonome, grâce à un fonctionnement cyclique et interactif entre l'acquisition et les traitements (hauts et bas niveaux) de l'image. Elle permet une fiabilisation des résultats qui minimise le temps de vérification et de corrections manuelles. L'ensemble de notre méthodologie et les résultats présentés issus de tests sur un certain nombre de cartes cadastrales, ont été développés avec pour objectif d'être le plus générique possible, afin d'être adaptables à d'autres types de documents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Ahmad, M. Mumtaz. "Memory optimization strategies for linear mappings and indexation-based shared documents". Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10083/document.

Texto completo
Resumen
Cette thèse vise à développer des stratégies permettant d'augmenter la puissance du calcul séquentiel et des systèmes distribués, elle traite en particulier, la décomposition séquentielle des opérations ainsi que des systèmes d'édition collaboratifs décentralisés. Nous introduisons, une méthode d'indexage avec précision contrôlée. Celle-ci permet la génération d'identifiants uniques utilisés dans l'indexage des communications dans les systèmes distribués, plus particulièrement dans les systèmes d'édition collaboratifs décentralisés. Ces identifiants sont des nombres réels avec un motif de précision contrôlé. Un ensemble fini d'identifiants est conservé pour permettre le calcul de cardinalités locales et globales. Cette propriété joue un rôle prépondérant dans la gestion des communications indexées. De plus, d'autres propriétés incluant la préservation de l'ordre sont observées. La méthode d'indexage a été testée et vérifiée avec succès. Ceci a permis la conception d'un système d'édition collaboratif décentralisé. Aussi, nous explorons les stratégies existantes, relatives a la décomposition séquentielle d'opérations, que nous étendons à de nouvelles stratégies. Ces stratégies mènent à une optimisation (processeur, compilateur, mémoire, code). Ces styles de décomposition portent un intérêt majeur à la communauté scientifique. Des recherches et des implémentations de plus en plus rapides résultent de la conception d'unité arithmétique
This thesis aims at developing strategies to enhance the power of sequential computation and distributed systems, particularly, it deals with sequential break down of operations and decentralized collaborative editing systems. In this thesis, we introduced precision control indexing method that generates unique identifiers which are used for indexed communication in distributed systems, particularly, in decentralized collaborative editing systems. These identifiers are still real numbers with a specific controlled pattern of precision. Set of identifiers is kept finite that makes it possible to compute local as well as global cardinality. This property plays important role in dealing with indexed communication. Besides this, some other properties including order preservation are observed. The indexing method is tested and verified by experimentation successfully and it leads to design decentralized collaborative editing system. Dealing with sequential break down of operations, we explore limitations of the existing strategies, extended the idea by introducing new strategies. These strategies lead towards optimization (processor, compiler, memory, code). This style of decomposition attracts research communities for further investigation and practical implementation that could lead towards designing an arithmetic unit
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

FERRARI, STEPHANE. "Methode et outils informatiques pour le traitement automatique des metaphores dans les documents ecrits". Paris 11, 1997. http://www.theses.fr/1997PA112381.

Texto completo
Resumen
Dans cette these, nous abordons la problematique de la metaphore du point de vue du traitement automatique des langues (tal). Les precedents travaux dans le domaine ont deja permis l'elaboration d'outils d'analyse semantique plus ou moins complexes. Nous constatons cependant que ces approches sont limitees dans leur application par deux facteurs importants : le probleme de la detection des metaphores au sein des textes, d'une part, et le probleme de la constitution de bases de connaissances relatives aux metaphores conventionnelles, d'autre part. Nous proposons en consequence une methode de detection des metaphores qui presente la particularite de pouvoir etre mise en uvre avant toute analyse semantique. Une analyse empirique de corpus nous a permis de montrer l'existence de <<<>marqueurs textuels<>>> (indices lexico-syntaxiques) regulierement utilises pour introduire les metaphores. Nous les utilisons pour reperer les metaphores dans les documents ecrits. Une extension de la methode est proposee pour le traitement de corpus thematiques. L'ensemble a ete valide sur un corpus d'une taille de 450 000 mots, compose des articles de bourse du journal le monde entre 1987 et 1989. Le prototype qui implante cette methode fait l'objet d'une evaluation dans le cadre d'un projet de recherche en cours, sous l'egide de l'aupelf-uref. La detection realisee par ce type de methode n'est pas parfaite. Elle permet cependant d'envisager de guider des analyses plus fines qui valideront, en aval, les hypotheses faites sur la presence de metaphores. Nos travaux constituent un apport pour le traitement des metaphores. Ils annoncent clairement la possibilite d'une exploitation de methodes d'ingenierie linguistique pour guider des traitements issus de theories plus fines.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Joly, Philippe. "Consultation et analyse des documents en image animée numérique". Toulouse 3, 1996. http://www.theses.fr/1996TOU30130.

Texto completo
Resumen
Nous proposons plusieurs methodes et outils dont l'objectif est de permettre la production d'interfaces ergonomiques pour la consultation et l'analyse des documents en image animee numerique. Nous identifions dans un premier temps les proprietes inherentes aux methodes de productions cinematographiques. Nous distinguons trois approches differentes dans le domaine de la recherche, basees sur ces proprietes: la reconnaissance des objets constitutifs des images et leurs mouvements, la description du contenu, et l'analyse statistique de signatures et de variations entre images. Dans ce dernier cadre, nous proposons un modele statistique qui caracterise les changements entre deux images consecutives lors d'un effet de transition. Nous avons developpe un algorithme efficace de segmentation en plans, qui est compare a d'autres algorithmes deja publies. Des unites plus grandes que le plan dans un long document peuvent etre utiles, pour une consultation rapide par exemple. Nous presentons alors une methode de macrosegmentation, basee sur les proprietes de production, qui est comparable a la segmentation en sequences. Nous completons cet ensemble d'outils par la description d'une methode de microsegmentation dont le but est d'analyser les principaux mouvements de camera. Dans ce chapitre, nous proposons aussi un ensemble de methodes produisant une specification des transitions, des plans, et des documents. Enfin, nous presentons differentes interfaces basees sur des representations discretes et nous discutons leurs proprietes ergonomiques. Un lexique, inclus dans le rapport, decrit des methodes de production audiovisuelles et propose des directions de recherche en vue de leur analyse automatique
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Drira, Fadoua. "Contribution à la restauration des images de documents anciens". Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0111/these.pdf.

Texto completo
Resumen
La numérisation massive de documents patrimoniaux ouvre de nouvelles perspectives de Recherche comme la restauration des documents dégradés. Ces dégradations sont dues au mauvais état de conservation et à la numérisation. De telles altérations sur des images aussi complexes ne peuvent pas être traitées par une simple transposition des outils traditionnels de restauration. Cette thèse traite donc de la restauration des dégradations des images des documents anciens, et plus particulièrement des dégradations du support papier et des formes des lettres car elles nuisent à la lisibilité des documents numérisés et empêchent tout traitement automatisé. Pour les dégradations du support papier, assimilées à un problème de superposition de couches, nous proposons deux méthodes. La première est une méthode de segmentation récursive issue de l’algorithme des nuées dynamiques appliquée sur les données décorrélées par l’analyse en composantes principales. La deuxième méthode est une amélioration de l’algorithme du Mean-Shift qui réduit sa complexité de calcul. Nous proposons, ensuite, de traiter les dégradations des formes des lettres par des méthodes de diffusion. Tout d’abord, nous présentons les modèles existants les plus adaptés à la restauration des images de document. Ensuite, nous proposons un modèle de diffusion capable de filtrer les contours et de renforcer la continuité des traits tout en préservant les singularités. Pour concevoir une approche capable de restaurer à la fois les dégradations du support papier et des formes des lettres, nous proposons une combinaison entre la segmentation et la diffusion. Cette combinaison permet de réaliser une segmentation en couches des images de documents tout en préservant la forme des contours des lettres
The massive digitization of heritage documents raised new prospects for Research like the restoration of the degraded documents. These degradations are due to the bad conditions of conservation and even to the digitization process. Images of old and degraded documents cannot be the retored directely by classical approaches. Hence, we propose in this thesis to develop and analyze document image restoration algorithms. We are mainly interested in foreground/background degradations, since they harm the legibility of the digitized documents and limit the processing of these images. For background degradations, considered as a problem of the superposition of layers, we propose two-based segmentation methods. The first is a recursive approach that relies on the k-means clustering algorithm and the principal component analysis. The second method is an improvement of the initial algorithm of MeanShift in an attempt to reduce its complexity. For foreground degradations, we propose to tackle the problem with PDE-based diffusion approaches. This solution has many useful features that are relevant for use in character restoration. Our comparative study of existing methods allows us to select the best approaches well adapted to our problem. We propose also a new diffusion method preserving singularities and edges while smoothing. Our previously proposed solutions, the diffusion and the Mean-Shift algorithms, are used with success in a joint iterative framework to solve foreground and background degradations. This framework generates segmented images with more reduced artefacts on the edges and on the background than those obtained in separate application of each method
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Duong, Jean. "Etude des Documents Imprimés : Approche Statistique et Contribution Méthodologique". Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0027/these.pdf.

Texto completo
Resumen
Cette thèse s'attache à l'étude de la structuration des documents dits à "typographie riche et récurrente''. Nous avons principalement travaillé sur des images de documents correspondant à des extraits d'inventaires-sommaires des Archives Départementales de Charente-Maritime et de Savoie. Nous avons proposé un procédé de segmentation qui permet d'inférer la structure physique de ces pages. Nous avons aussi développé une approche basée sur les modèles de Markov cachés pour la reconnaissance de la structure logique. En parallèle de ces avancées applicatives, nous avons mené deux réflexions plus fondamentales. La première a porté sur l'étude des caractéristiques utilisées pour la description des régions d'intérêt (entités physiques) des images de documents. La seconde a été consacrée à la mise au point d'une méthode de classification reposant sur un apprentissage sélectif. Parmi les nombreuses applications de cet algorithme, c'est l'opportunité d'effectuer une reconnaissance de caractères qui a motivé son développement
This thesis turns on the study of the structuring of the documents containing `` rich and recurrent typography''. We mainly worked on images of documents corresponding to extracts of inventory-synopses from Archives of départements of Charente-Maritime and Savoy. We proposed a segmentation process to retrieve the layout structure of these pages. We also developed an approach based on hidden Markov models for the logical recognition. In parallel of these applicative contributions, we carried out two more fundamental reflections. The first one is related to the study of the characteristics used for the description of the regions of interest (physical entities) in document images. The second one was devoted to the development of a method of classification resting on a selective training. Among the many applications of this algorithm, it is the advisability of carrying out a character recognition task which justified its development
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Oriot, Jean-Claude. "Analyse d'images de documents à structures variées : application à la localisation du bloc adresse sur les objets postaux". Nantes, 1992. http://www.theses.fr/1992NANT2061.

Texto completo
Resumen
Cette these concerne une etude menee dans le cadre de l'analyse de documents. L'application envisagee porte sur la localisation du bloc adresse sur les objets postaux plats (documents a structures variees: grandes enveloppes, publicite, journaux, magazines, etc. ). Sur ce type d'images, la localisation est une etape fondamentale avant la phase de reconnaissance des adresses. Il s'agit de rechercher une region d'interet dans un environnement donnee. Cette region d'interet correspond a une entite structurelle composee de lignes de texte (le bloc adresse). L'etude met en evidence l'heterogeneite des objets plats. Deux categories principales d'objets sont decrites et traitees plus particulierement. Pour la premiere, les objets charges, il s'agit de rechercher un groupe de lignes de texte aux caracteristiques mal specifiees (tout type d'ecriture) place dans un environnement tres dense, variable et degrade (phenomenes d'occulation). Ces deux chaines de traitements font appel a une meme strategie generale qui consiste a generer une liste de blocs adresses candidats puis a selectionner le meilleur. La resolution spatiale des images est relativement basse (75 dpi) et nous avons particulierement mis l'accent sur les traitements de bas niveaux. L'approche est validee par evaluation des performances sur une grande base d'images de documents
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Delamarre, Aurélie Le Pottier Nicole. "Traitement et catalogage des manuscrits contemporains". [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/dcb/delamarre.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Tannier, Xavier. "Extraction et recherche d'information en langage naturel dans les documents semi-structurés". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00121721.

Texto completo
Resumen
La recherche d'information (RI) dans des documents semi-structurés
(écrits en XML en pratique) combine des aspects de la RI
traditionnelle et ceux de l'interrogation de bases de données. La
structure a une importance primordiale, mais le besoin d'information
reste vague. L'unité de recherche est variable (un paragraphe, une
figure, un article complet\dots). Par ailleurs, la flexibilité du
langage XML autorise des manipulations du contenu qui provoquent
parfois des ruptures arbitraires dans le flot naturel du texte.

Les problèmes posés par ces caractéristiques sont nombreux, que ce
soit au niveau du pré-traitement des documents ou de leur
interrogation. Face à ces problèmes, nous avons étudié les solutions
spécifiques que pouvait apporter le traitement automatique de la
langue (TAL). Nous avons ainsi proposé un cadre théorique et une
approche pratique pour permettre l'utilisation des techniques
d'analyse textuelle en faisant abstraction de la structure. Nous avons
également conçu une interface d'interrogation en langage naturel pour
la RI dans les documents XML, et proposé des méthodes tirant profit de
la structure pour améliorer la recherche des éléments pertinents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Harrathi, Farah. "Extraction de concepts et de relations entre concepts à partir des documents multilingues : approche statistique et ontologique". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0073/these.pdf.

Texto completo
Resumen
Les travaux menés dans le cadre de cette thèse se situent dans la problématique de recherche- indexation des documents et plus spécifiquement dans celle de l’extraction des descripteurs sémantiques pour l’indexation. Le but de la Recherche d’Information (RI) est de mettre en œuvre un ensemble de modèles et de systèmes permettant la sélection d’un ensemble de documents satisfaisant un besoin utilisateur en termes d’information exprimé sous forme d’une requête. Un Système de Recherche d’Information (SRI) est composé principalement de deux processus. Un processus de représentation et un processus de recherche. Le processus de représentation est appelé indexation, il permet de représenter les documents et la requête par des descripteurs ou des indexes. Ces descripteurs reflètent au mieux le contenu des documents. Le processus de recherche consiste à comparer les représentations des documents à la représentation de la requête. Dans les SRIs classiques, les descripteurs utilisés sont des mots (simples ou composés). Ces SRIs considèrent le document comme étant un ensemble de mots, souvent appelé “ sac de mots ”. Dans ces systèmes, les mots sont considérés comme des graphies sans sémantique. Les seules informations exploitées concernant ces mots sont leurs fréquences d’apparition dans les documents. Ces systèmes ne prennent pas en considération les relations sémantiques entre les mots. Par exemple, il est impossible de trouver des documents représentés par un mot M1 synonyme d’un mot M2, dans le cas où la requête est représentée par M2. Aussi, dans un SRI classique un document indexé par le terme “ bus ” ne sera jamais retrouvé par une requête indexée par le terme “taxi ”, pourtant il s’agit de deux termes qui traitent le même thème “ moyen de transport ”. Afin de remédier à ces limites, plusieurs travaux se sont intéressés à la prise en compte de l’aspect sémantique des termes d’indexation. Ce type d’indexation est appelé indexation sémantique ou conceptuelle
The research work of this thesis is related to the problem of document search indexing and more specifically in that of the extraction of semantic descriptors for document indexing. Information Retrieval System (IRS) is a set of models and systems for selecting a set of documents satisfying user needs in terms of information expressed as a query. In IR, a query is composed mainly of two processes for representation and retrieval. The process of representation is called indexing, it allows to represent documents and query descriptors, or indexes. These descriptors reflect the contents of documents. The retrieval process consists on the comparison between documents representations and query representation. In the classical IRS, the descriptors used are words (simple or compound). These IRS consider the document as a set of words, often called a "bag of words". In these systems, the words are considered as graphs without semantics. The only information used for these words is their occurrence frequency in the documents. These systems do not take into account the semantic relationships between words. For example, it is impossible to find documents represented by a word synonymous with M1 word M2, where the request is represented by M2. Also, in a classic IRS document indexed by the term "bus" will never be found by a query indexed by the word "taxi", yet these are two words that deal with the same subject "means of transportation. " To address these limitations, several studies were interested taking into account of the semantic indexing terms. This type of indexing is called semantic or conceptual indexing. These works take into account the notion of concept in place of notion of word. In this work the terms denoting concepts are extracted from the document by using statistical techniques. These terms are then projected onto resource of semantics such as: ontology, thesaurus and so on to extract the concepts involved
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Quint, Vincent. "Une approche de l'édition structurée des documents". Phd thesis, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00010612.

Texto completo
Resumen
L'édition d'un document peut être vue comme la manipulation d'une structure abstraite qui représente
l'organisation logique des composants du document. A partir de ce principe, on propose un méta-modèle
qui permet la description des structures logiques de toutes sortes de documents et de différents types
d'objets fréquents dans les documents : formules mathématiques, tableaux, schémas, etc... on associe aux
structures logiques des règles de présentation qui déterminent l'aspect graphique de leurs composants.
On montre l'intérêt de cette approche en présentant deux systèmes interactifs construits sur ce modèle :
l'éditeur de formules mathématiques Edimath et l'éditeur de documents Grif. La présentation de ces systèmes
s'appuie sur un état de l'art de la typographie informatique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Journet, Nicholas. "Analyse d’images de documents anciens : une approche texture". La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Texto completo
Resumen
Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Tran, Thuong Tien. "Modélisation et traitement du contenu des médias pour l'édition et la présentation de documents multimédias". Grenoble INPG, 2003. http://www.theses.fr/2003INPG0019.

Texto completo
Resumen
Les travaux de cette thèse proposent une nouvelle voie qui permet d'éditer/présenter des documents multimédias. Elle consiste à modéliser le contenu des médias complexes (vidéo) en sous-éléments (objets, scènes). Ainsi, à ces objets internes à un média peuvent être associés des comportements (hyperliens) ou des relations spatiales ou temporelles avec d'autres objets du document de façon à obtenir des présentations multimédias plus riches. Outre l'objectif de couvrir les besoins de description des auteurs pour réaliser des synchronisations fines entre médias, la difficulté majeure de ce travail a consisté à assurer que ce modèle ce modèle reste cohérent par rapport au modèle de composition de documents. L'approche choisie consiste à utiliser les descriptions de MPEG-7 pour décrire les médias et à intégrer ces descriptions au sein d'une extension du modèle de document à base de contraintes Madeus
This work proposes a new way to edit/present easily multimedia documents. It consists in modelling the contents of complex media (video, audio) as a structure of sub-elements (moving objects, shots, scenes). These internal media fragments can be associated with behaviors (hyperlinks) or spatial/temporal relations with other objects of the document. This enables richer multimedia presentations thanks to a finer synchronization between media. The difficulty of this work is to insure that this model remains consistent with the composition model of multimedia documents and that it covers the needs of the authors for multimedia fine-grained synchronization. The approach chosen consists in using description tools from MPEG-7 to describe media contents and in integrating these descriptions into an extension of the Madeus constraint-based composition model
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Lemaitre, Aurélie. "Introduction de la vision perceptive pour la reconnaissance de la structure de documents". Rennes, INSA, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lemaitre.pdf.

Texto completo
Resumen
La vision perceptive humaine combine différents niveaux de perception pour faciliter l'interprétation d'une scène. Les physiologistes la modélisent par le cycle perceptif, guidé par un facteur psychologique, l'attention visuelle. Nous proposons d'utiliser ce principe pour la reconnaissance d'images de documents anciens et manuscrits. Ainsi, nous proposons une architecture générique, DMOS-P, permettant de spécifier des mécanismes de coopération perceptive qui facilitent la description et améliorent la reconnaissance de la structure de documents. Dans les applications, nous mettons en évidence un mécanisme de prédiction/vérification : la vision à basse résolution permet d'émettre des hypothèses sur la structure en utilisant le contexte global, qui ces hypothèses sont ensuite vérifiées à plus haute résolution. Nous avons validé cette approche sur des documents à structure variée (courriers manuscrits, registres d'archives, presse…) et à grande échelle (plus de 80 000 images)
Human perceptive vision combines several levels of perception in order to simplify the interpretation of a scene. It is represented by physiologists as a perceptive cycle guided by visual attention. We propose to use this principle for the recognition of images of old and handwritten documents. Thus, we propose a generic architecture, DMOS-P, that makes it possible to specify mechanisms of perceptive cooperation that makes easier the description and improve the recognition of the structure of documents. In the applications, we show a prediction/verification mechanism: the low resolution vision provides hypotheses on the structure, using the global context; these hypotheses are then verified at a higher resolution. We validated this approach on various kinds of documents (handwritten incoming mails, archive registers, newspapers…) and at a large scale (more than 80,000 images)
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Trupin, Eric. "Segmentation de documents : Application a un systeme de lecture pour non-voyants". Rouen, 1993. http://www.theses.fr/1993ROUES009.

Texto completo
Resumen
Les travaux présentés dans ce mémoire abordent les différentes étapes nécessaires à la lecture d'un texte dactylographié pour un non-voyant. Ces travaux s'appuient sur la conception existante et commercialisée d'un dispositif électronique de lecture de texte pour aveugles: l'appareil Delta. Le fonctionnement de celui-ci est détaillé et les diverses améliorations apportées à cet appareil sont présentées. Ce document discute ensuite d'une nouvelle génération de cet appareil équipé d'un scanner à main. Aussi une technique de segmentation d'images en blocs est mise au point, conjointement à une procédure de discrimination texte/graphique, permettant d'écrire l'image sous forme de blocs de texte. Les blocs sont détectés grâce à un balayage périodique appelé suivi de sondes, puis extraits grâce à un suivi de contour modifié qui utilise une matrice d'observation. Une procédure d'analyse des objets connexes contenus dans chaque bloc permet de distinguer le texte du graphique suivant cinq critères de discrimination et remet en cause la segmentation du bloc effectuée si des objets graphiques sont contenus dans le bloc. Ces techniques sont évaluées dans ce mémoire. Une organisation de ces blocs, appelé ordre logique, permet ensuite de les enchaîner grâce à l'intervention de l'utilisateur qui valide chaque bloc proposé. Certains séparateurs graphiques détectés dans l'image sont alors pris en compte pour améliorer l'ordre détecté et limiter le nombre de rejets par l'utilisateur des blocs proposés
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Lefrère, Laurent. "Contribution au développement d'outils pour l'analyse automatique de documents cartographiques". Rouen, 1993. http://www.theses.fr/1993ROUES045.

Texto completo
Resumen
Les travaux présentés dans ce mémoire abordent différents aspects de l'analyse de documents cartographiques, du prétraitement couleur à la reconnaissance de toponymes en passant par l'extraction d'objets géographiques. Le premier chapitre est consacré à la classification couleur. Ce prétraitement permet d'obtenir, à partir d'images de cartes numérisées en cyan, magenta, yellow, les plans couleurs rouge, vert, bleu et noir proches des planches-mères ayant permis l'impression des cartes. L'originalité de la segmentation CMY/TS est sa capacité à reconstruire les objets masqués par les superpositions. Cette classification permet d'apporter une information plus compacte et plus complète aux modules d'extraction subséquents. Le second chapitre présente d'une part, une méthode de caractérisation et d'extraction de zones texturées basée sur une modélisation structurelle et statistique des textures. Cette méthode permet de modéliser conjointement l'aspect macroscopique régulier et structuré des textures ainsi que leur aspect microscopique plus aléatoire. D'autre part, est présenté un module d'extraction des réseaux linéaires et plus particulièrement des réseaux routiers basé sur un suivi de trait particulier contrôlé par un ensemble de mesures statistiques regroupées en un critère dit de Gibbs. Le dernier chapitre présente une stratégie particulière de reconstruction de toponymes à partir d'une méthode originale de reconnaissance de caractères invariante à la translation, à l'homothétie et à la rotation. Ce module permet de plus de reconstituer les limites de parcelles formées de pointillés. Ces différents modules fournissent, à partir des cartes papier existantes, des données structurées et organisées, prêtes à être intégrées dans des systèmes d'information géographique
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Max, Aurélien. "De la création de documents normalisés à la normalisation de documents en domaine contraint". Grenoble 1, 2003. http://www.theses.fr/2003GRE10227.

Texto completo
Resumen
Les documents en domaine contraint doivent répondre à de nombreuses conditions de bonne formation qui sont souvent difficiles à appliquer. Un courant de recherche actif s’intéresse à la création de documents normalisés par spécification du contenu sémantique, facilitant ainsi de nombreuses applications de ces documents, dont la production multilingue. Néanmoins, les systèmes actuels ne permettent pas l’analyse d’un document existant afin de le normaliser. Dans ce contexte, nous proposons une approche réutilisant les ressources de tels systèmes pour recréer le contenu sémantique d’un document, à partir duquel sa forme textuelle normalisée est ensuite générée. Cette approche s’articule autour de deux paradigmes centraux : la génération inversée floue, qui permet de trouver heuristiquement des représentations sémantiques candidates, et la négociation interactive, qui permet à un expert du domaine de valider progressivement la représentation sémantique correspondant au document originel
Well-formedness conditions on documents in constrained domains are often hard to apply. An active research trend approaches the authoring of normalized documents through semantic specification, thereby facilitating such applications as multilingual production. However, the current systems are not able to analyse an existing document in order to normalize it. We therefore propose an approach that reuses the resources of such systems to recreate the semantic content of a document, from which a normalized textual version can be generated. This approach is based on two main paradigms : fuzzy inverted generation, which heuristically finds candidate semantic representations, and interactive negotiation, which allows an expert of the domain to progressively validate the semantic representation that corresponds to the original document
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Caro, Dambreville Stéphane. "Rôle des organisateurs paralinguistiques dans la consultation des documents électroniques". Grenoble 3, 1995. https://tel.archives-ouvertes.fr/tel-00451634.

Texto completo
Resumen
Cette these porte sur le role des organisateurs para-linguistiques dans la conception de textes techniques sur ecran. Les organisateurs plus particulierement etudes sont les parentheses, les notes de bas de page, les typages explicites (tel que <> precedant un passage) ainsi que les <> (pop-up windows). Des methodes de psychologie experimentale ont ete utilisees pour analyser, d'une part, des productions des redacteurs, et d'autre part, l'influence des organisateurs para-linguistiques sur l'activite de lecture (memorisation et recherche d'information). L'idee initiale est qu'il est possible de decouper les textes en unites d'intentions de communication du redacteur (souligner ou minimiser l'importance relative d'une unite par ex. ). Ainsi le texte devient un ensemble d'unites textuelles (ut) qui relevent d'intentions differentes du redacteur. Les intentions peuvent etre codees par differents moyens de mise en forme materielle. Une typologie d'unites textuelles selon les intentions du redacteur est proposee. On montre experimentalement qu'elle a une realite psychologique et qu'une mise en forme materielle du texte basee sur cette typologie a une influence sur la lecture et la consultation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía