Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Reconnaissance de textes manuscrits.

Rozprawy doktorskie na temat „Reconnaissance de textes manuscrits”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Reconnaissance de textes manuscrits”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Nosary, Ali. "Reconnaissance automatique de textes manuscrits par adaptation au scripteur". Rouen, 2002. http://www.theses.fr/2002ROUES007.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce mémoire abordent le problème de la reconnaissance hors-ligne de textes manuscrits. Ces travaux décrivent un système de reconnaissance de textes exploitant un principe original d'adaptation à l'écriture à reconnaître. Ce principe d'adaptation, inspiré des principaux effets contextuels observés chez un lecteur humain, est basé sur l'apprentissage,au cours de la reconnaissance, des particularités graphiques représentatives de l'écriture du scripteur (invariants du scripteur). La reconnaissance de mots procède selon une approche analytique basée sur le principe de segmentation-reconnaissance. L'adaptation en ligne du système de reconnaissance repose sur l'itération de phases de reconnaissance de mots qui permettent d'étiqueter les représentations du scripteur (allographes) sur l'ensemble du texte et de phases de réévaluation des modèles de caractères. La mise en application de notre stratégie de reconnaissance par adaptation nécessite de recourir à un schéma de reconnaissance interactif capable de faire interagir les traitements aux différents niveaux contextuels. Le modèle d'interaction retenu est basé sur le paradigme multi-agent. Les tests réalisés sur un échantillon d'une quinzaine de scripteurs tous inconnus du système montrent l'intérêt du schéma d'adaptation proposé puisque nous obtenons une amélioration de la reconnaissance, à la fois des lettres et des mots, au cours des itérations
This thesis deals with the problem of off-line handwritten text recognition. It describes a system of text recognition which exploits an original principle of adaptation to the handwriting to be recognized. The adaptation principle, inspired by contextual effects observed from a human reader, is based on the automatic learning, during the recognition, of the graphical characteristics of the handwriting (writer invariants). The word recognition proceeds according to an analytical approach based on a segmentation-recognition principle. The on-line adaptation of the recognition system relies on the iteration of two steps : a word recognition step which allows to label the writer's representations (allographes) on the whole text and a revaluation step of character models. The implementation of our adaptation strategy requires an interactive recognition scheme able to make interact treatments at various contextual levels. The interaction model retained is based on the multi-agent paradigm
Style APA, Harvard, Vancouver, ISO itp.
2

Vincent, Nicole. "Contribution à la reconnaissance de textes multipolices". lyon, INSA, 1988. http://www.theses.fr/1988ISAL0011.

Pełny tekst źródła
Streszczenie:
L'étude se propose essentiellement l'élaboration d'un logiciel de reconnaissance multi police de textes dactylographiés et imprimés reposant uniquement sur la mise en œuvre des moyens de la micro-informatique. Après avoir fait le point sur l'état de la recherche après vingt ans d'informatique et consacré un chapitre aux problèmes actuels de la lecture optique, en particulier à celui de la segmentation, l'auteur expose l'élaboration de la méthode employée. Celle-ci définie, mise au point et testée, permet de lire treize polices parmi les plus utilisées. Elle ne comporte, pour l'uitilisateur, ni phase d'apprentissage, ni constitution de dictionnaire. Elle fait appel aux techniques arborescentes et synthétise des approches variées. La reconnaissance de l'écriture manuscrite est également abordée, elle traite de la reconnaissance des caractères isolés. Un logiciel est mis au point, à titre d'exemple, pour un type d'écriture donné. On arrive alors aux limites des possibilités actuelles de la micro-informatique, ce qui pose le problème du temps de reconnaissance. L'étude se termine par une application industrielle consacrée à la lecture optique de plaques indicatrices d'un système de transport.
Style APA, Harvard, Vancouver, ISO itp.
3

Paquet, Thierry. "Segmentation et classification de mots en reconnaissance optique de textes manuscrits". Rouen, 1992. http://www.theses.fr/1992ROUES007.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce mémoire abordent les différentes étapes nécessaires à la réalisation d'un logiciel de reconnaissance optique de texte manuscrit provenant d'un scripteur quelconque, dans le cadre d'une application à vocabulaire limité : la lecture automatique des montants littéraux présents sur des chèques bancaires ou postaux. La localisation des mots dans l'image binarisée, première étape du traitement, est réalisée par une méthode d'analyse descendante. De cette façon, il est possible de déterminer au cours du traitement des paramètres utiles pour les traitements suivants : hauteur des corps de ligne, positions des lignes de base, positions des extensions des corps de ligne. Un modèle structurel global des mots manuscrits cursifs constitué des particularités locales rencontrées dans le mot autour de l'axe médian est proposé. Celui-ci constitue une alternative au modèle analytique en lettres séparées généralement utilisé. L'extraction des caractéristiques dans l'image du mot est effectué par un algorithme de suivi de trait qui permet l'étiquetage direct des éléments caractéristiques selon le modèle envisagé lors dans la progression dans le trait vu comme un graphe de zones. La discrimination des 30 mots du vocabulaire étudié s'effectue en deux étapes. Un critère d'aspect prenant en compte les extensions du corps de ligne et la longueur du mot permet tout d'abord de rejeter les mots du dictionnaire d'aspects fondamentalement différents. Les candidats retenus sont ensuite classés en évaluant une distance d'édition entre le graphe de traits extraits et les graphes de référence des mots candidats codés en chaîne de graphèmes. L'utilisation de règles de substitution étendues permet la prise en compte de configurations proches et notamment des liaisons entre lettres. Les résultats présentés, issus de tests effectués sur des données de laboratoire et d'images de chèques, laissent augurer de bonnes performances sur des bases de données importantes par la mise en place d'une stratégie de lecture qui n'est pas envisagée dans ce travail
Style APA, Harvard, Vancouver, ISO itp.
4

Oudot, Loïc. "Fusion d'informations et adaptation pour la reconnaissance de textes manuscrits dynamiques". Paris 6, 2003. http://www.theses.fr/2003PA066469.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Barrère, Killian. "Architectures de Transformer légères pour la reconnaissance de textes manuscrits anciens". Electronic Thesis or Diss., Rennes, INSA, 2023. http://www.theses.fr/2023ISAR0017.

Pełny tekst źródła
Streszczenie:
En reconnaissance d’écriture manuscrite, les architectures Transformer permettent de faibles taux d’erreur, mais sont difficiles à entraîner avec le peu de données annotées disponibles. Dans ce manuscrit, nous proposons des architectures Transformer légères adaptées aux données limitées. Nous introduisons une architecture rapide basée sur un encodeur Transformer, et traitant jusqu’à 60 pages par seconde. Nous proposons aussi des architectures utilisant un décodeur Transformer pour inclure l’apprentissage de la langue dans la reconnaissance des caractères. Pour entraîner efficacement nos architectures, nous proposons des algorithmes de génération de données synthétiques adaptées au style visuel des documents modernes et anciens. Nous proposons également des stratégies pour l’apprentissage avec peu de données spécifiques, et la réduction des erreurs de prédiction. Nos architectures, combinées à l’utilisation de données synthétiques et de ces stratégies, atteignent des taux d’erreur compétitifs sur des lignes de texte de documents modernes. Sur des documents anciens, elles parviennent à s’entraîner avec des nombres limités de données annotées, et surpassent les approches de l’état de l’art. En particulier, 500 lignes annotées sont suffisantes pour obtenir des taux d’erreur caractères proches de 5%
Transformer architectures deliver low error rates but are challenging to train due to limited annotated data in handwritten text recognition. We propose lightweight Transformer architectures to adapt to the limited amounts of annotated handwritten text available. We introduce a fast Transformer architecture with an encoder, processing up to 60 pages per second. We also present architectures using a Transformer decoder to incorporate language modeling into character recognition. To effectively train our architectures, we offer algorithms for generating synthetic data adapted to the visual style of modern and historical documents. Finally, we propose strategies for learning with limited data and reducing prediction errors. Our architectures, combined with synthetic data and these strategies, achieve competitive error rates on lines of text from modern documents. For historical documents, they train effectively with minimal annotated data, surpassing state-ofthe- art approaches. Remarkably, just 500 annotated lines are sufficient for character error rates close to 5%
Style APA, Harvard, Vancouver, ISO itp.
6

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne". Phd thesis, Rennes, INSA, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/quiniou.pdf.

Pełny tekst źródła
Streszczenie:
L’objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases
The aim of this thesis is to build a sentence regognition system based on an existing word regognition system. Two research axes are considered: the sentence segmentation int words as well as the integration of linguistic knowledge to take into account the context of the sentences. We studied several types of statistic language models by comparing their respective impact on the recognition system performances. We also tried to find the best strategy to introduce them efficiently into the whole recognition system. One of the originality of this study is the integration of a representation of the different sentence hypotheses in the form of a confusion network; which is then used to detect and correct the remaining regognition errors. Using the aforementioned techniques allowed us to considerably reduce the number of recognition errors among the words of the sentences
Style APA, Harvard, Vancouver, ISO itp.
7

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne". Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00580623.

Pełny tekst źródła
Streszczenie:
L'objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases.
Style APA, Harvard, Vancouver, ISO itp.
8

Leroux, Manuel. "Reconnaissance de textes manuscrits à vocabulaire limité avec application à la lecture automatique des chèques". Rouen, 1991. http://www.theses.fr/1991ROUES045.

Pełny tekst źródła
Streszczenie:
Les travaux décrits dans ce document concernent un système de reconnaissance off-line de mots manuscrits cursifs omni-scripteurs dans un vocabulaire limité appliqué à l'identification du montant littéral des chèques postaux. La première partie de ce document effectue une analyse bibliographique sur le thème: reconnaissance off-line de l'écrit manuscrit cursif. Elle s'attache à analyser les différents travaux réalisés à ce jour, dans les cinq modules qui composent un système de reconnaissance: segmentation du document, pré-traitements, représentation du texte à reconnaître, reconnaissance et post-traitements. La deuxième partie concerne les différents processus de localisation et de caractérisation des entités à reconnaître et l'approche de reconnaissance retenue pour l'identification des mots composant les sommes littérales des chèques. Les particularités de l'application et les données autorisées en entrée du processus de reconnaissance nous ont amené à élaborer une stratégie d'identification fondée sur la coopération des deux méthodes habituellement utilisées dans les systèmes de lecture automatique: les approches globale et analytique. L'approche globale effectue une reconnaissance des mots d'après leurs formes. Elle utilise une description arbitrairement appauvrie pour minimiser le problème de la variabilité de l'écriture omni-scripteurs et de la qualité d'écriture autorisée. L'approche analytique grâce à deux descriptions, la première élaborée à l'aide des lettres sûres et la deuxième constituée de toutes les lettres reconnues, complémente l'approche globale pour récupérer ses éventuels défauts. Ces deux modules de reconnaissance utilisent une entrée un même découpage des mots en segments-lettres réalisé par un processus de segmentation. La coopération entre les deux approches génère, pour chaque entité à reconnaître, des hypothèses de mots filtrées postérieurement par la grammaire particulière des montants des chèques. Tous les modules réalisés, ainsi que les approches de reconnaissance retenues sont évalués sur des données réelles issus des centres financiers de La Poste
Style APA, Harvard, Vancouver, ISO itp.
9

Morillot, Olivier. "Reconnaissance de textes manuscrits par modèles de Markov cachés et réseaux de neurones récurrents : application à l'écriture latine et arabe". Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0002.

Pełny tekst źródła
Streszczenie:
La reconnaissance d’écriture manuscrite est une composante essentielle de l’analyse de document. Une tendance actuelle de ce domaine est de passer de la reconnaissance de mots isolés à celle d’une séquence de mots. Notre travail consiste donc à proposer un système de reconnaissance de lignes de texte sans segmentation explicite de la ligne en mots. Afin de construire un modèle performant, nous intervenons à plusieurs niveaux du système de reconnaissance. Tout d’abord, nous introduisons deux méthodes de prétraitement originales : un nettoyage des images de lignes de texte et une correction locale de la ligne de base. Ensuite, nous construisons un modèle de langage optimisé pour la reconnaissance de courriers manuscrits. Puis nous proposons deux systèmes de reconnaissance à l’état de l’art fondés sur les HMM (Hidden Markov Models) contextuels et les réseaux de neurones récurrents BLSTM (Bi-directional LongShort-Term Memory). Nous optimisons nos systèmes afin de proposer une comparaison de ces deux approches. Nos systèmes sont évalués sur l’écriture cursive latine et arabe et ont été soumis à deux compétitions internationales de reconnaissance d’écriture. Enfin, enperspective de notre travail, nous présentons une stratégie de reconnaissance pour certaines chaînes de caractères hors-vocabulaire
Handwriting recognition is an essential component of document analysis. One of the popular trends is to go from isolated word to word sequence recognition. Our work aims to propose a text-line recognition system without explicit word segmentation. In order to build an efficient model, we intervene at different levels of the recognition system. First of all, we introduce two new preprocessing techniques : a cleaning and a local baseline correction for text-lines. Then, a language model is built and optimized for handwritten mails. Afterwards, we propose two state-of-the-art recognition systems based on contextual HMMs (Hidden Markov Models) and recurrent neural networks BLSTM (Bi-directional Long Short-Term Memory). We optimize our systems in order to give a comparison of those two approaches. Our systems are evaluated on arabic and latin cursive handwritings and have been submitted to two international handwriting recognition competitions. At last, we introduce a strategy for some out-of-vocabulary character strings recognition, as a prospect of future work
Style APA, Harvard, Vancouver, ISO itp.
10

Bilane, P. "Contributions a l'indexation et a la reconnaissance des manuscrits Syriaques". Phd thesis, INSA de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00499537.

Pełny tekst źródła
Streszczenie:
CETTE THESE EST DEDIEE A L'EXPLORATION INFORMATIQUE DE MANUSCRITS SYRIAQUES, C'EST LA PREMIERE ETUDE DE CE TYPE MISE EN ŒUVRE. LE SYRIAQUE EST UNE LANGUE QUI S'EST DEVELOPPE A L'EST DU BASSIN MEDITERRANEEN, IL Y A PLUS DE VINGT SIECLES ET QUI AUJOURD'HUI EST ENCORE PRATIQUEE. LA PRESENTATION DE L'HISTOIRE DU DEVELOPPEMENT DE CETTE LANGUE FAIT L'OBJECT DU PREMIER CHAPITRE. LE SYRIAQUE S'ECRIT DE DROITE A GAUCHE, AVEC UN ASPECT TRES SINGULIER, UN PENCHE D'UN ANGLE D'ENVIRON 45° QUI REND LES ALGORITHMES DE TRAITEMENT ET D'ANALYSE DE DOCUMENTS DEVELOPPES POUR LES AUTRES ECRITURES INOPERANTS. DANS LE SECOND CHAPITRE, APRES NOUS ETRE INTERESSES A LA DESCRIPTION ET L'EXTRACTION DES STRUCTURES DES DOCUMENTS, NOUS AVONS ELABORE UNE METHODE DE SEGMENTATION DES MOTS QUI PREND EN COMPTE CE PENCHE; ELLE NOUS CONDUIT A UNE TRENTAINE DE FORMES STABLES QUI SONT DES LETTRES INDIVIDUELLES VERTICALES ET DES "N-GRAMMES" CONSTITUES PAR DES LETTRES PENCHEES. DANS LA DEUXIEME PARTIE DE LA THESE, NOUS NOUS SOMMES INTERESSES AU CONTENU DES DOCUMENTS POUR DES FINS D'INDEXATION. NOUS AVONS DEVELOPPE UNE METHODE DE REPERAGE DE MOTS QUI PERMET DE RETROUVER, DANS IN DOCUMENT, TOUTES LES OCCURRENCES D'UN MOT SELON PLUSIEUS MODES DE REQUETES (WORD SPOTTING, WORD RETRIEVAL). ELLE REPOSE SUR UNE SIMILARITE DE FORME EVALUEE A PARTIR D'UNE ANALYSE TRES FINE DE L'ORIENTATION DU TRACE DE L'ECRITURE. LE DERNIER CHAPITRE EST UNE PREMIERE CONTRIBUTION A LA TRANSCRIPTION ASSISTEE DES MANUSCRITS SYRIAQUES QUI REPOSE SUR LA SEGMENTATION DES MOTS DECRITE CI-DESSUS. NOUS MONTRONS QUE LA TRANSCRIPTION, QUI S'APPUIE SUR L'INTERACTION, EST EN RUPTURE AVES LES TRADITIONNELLES DEMARCHES DE RECONNAISSANCE PAR O. C. R.
Style APA, Harvard, Vancouver, ISO itp.
11

Delaye, Adrien. "Méta-modèles de positionnement spatial pour la reconnaissance de tracés manuscrits". Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00651446.

Pełny tekst źródła
Streszczenie:
L'essor des interfaces homme-machine permettant la saisie d'informations à l'aide d'un stylo électronique est accompagné par le développement de méthodes automatiques pour interpréter des données de plus en plus riches et complexes : texte manuscrit, mais aussi expressions mathématiques, schémas, prise de notes libre... Pour interpréter efficacement ces documents manuscrits, il est nécessaire de considérer conjointement les formes des objets qui les constituent et leur positionnement spatial. Nos recherches se concentrent sur la modélisation du positionnement spatial entre des objets manuscrits, en partant du constat qu'il n'est pas exploité dans toute sa richesse par les méthodes actuelles. Nous introduisons le concept de méta-modèle spatial, une modélisation générique pour décrire des relations spatiales entre des objets de nature, complexité et formes variables. Ces modèles, qui peuvent être appris à partir de données, offrent une richesse et une précision inédite car ils autorisent la conduite d'un raisonnement spatial directement dans l'espace image. L'appui sur le cadre de la théorie des sous-ensembles flous et de la morphologie mathématique permet la gestion de l'imprécision et offre une description des relations spatiales conforme à l'intuition. Un méta-modèle est doté d'un pouvoir de prédiction qui permet de décrire la relation spatiale modélisée au sein de l'image, par rapport à un objet de référence. Cette capacité rend possible la visualisation des modèles et fournit un outil pour segmenter les tracés en fonction de leur contexte. En exploitant ces modèles, nous proposons une représentation pour des objets manuscrits à la structure complexe. Cette représentation repose uniquement sur la modélisation de leurs informations spatiales, afin de démontrer l'importance de ces informations pour l'interprétation d'objets manuscrits structurés. La segmentation des tracés en primitives structurelles est guidée par les modèles de positionnement, via leur capacité de prédiction. Les résultats expérimentaux, portant sur des objets de complexité et de natures diverses (caractères chinois, gestes d'édition, symboles mathématiques, lettres), confirment la bonne qualité de description du positionnement offerte par les méta-modèles. Les tests de reconnaissance de symboles par l'exploitation de leur information spatiale attestent d'une part de l'importance de cette information et valident d'autre part la capacité des méta-modèles à la représenter avec une grande précision. Ces résultats témoignent donc de la richesse de l'information spatiale et du potentiel des méta-modèles spatiaux pour l'amélioration des techniques de traitement du document manuscrit.
Style APA, Harvard, Vancouver, ISO itp.
12

Thomas, S. "Extraction d'information dans des documents manuscrits non contraints : application au traitement automatique des courriers entrants manuscrits". Phd thesis, Université de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00863502.

Pełny tekst źródła
Streszczenie:
Malgré l'entrée récente de notre monde dans l'ère du tout numérique, de nombreux documents manuscrits continuent à s'échanger, obligeant nos sociétés et administrations à faire face au traitement de ces masses de documents. Le traitement automatique de ces documents nécessite d'accéder à un échantillon inconnu mais pertinent de leur contenu et implique de prendre en compte trois points essentiels : la segmentation du document en entités comparable à l'information recherchée, la reconnaissance de ces entités recherchées et le rejet des entités non pertinentes. Nous nous démarquons des approches classiques de lecture complète de documents et de détection de mots clés en parallélisant ces trois traitements en une approche d'extraction d'information. Une première contribution réside dans la conception d'un modèle de ligne générique pour l'extraction d'information et l'implémentation d'un système complet à base de modèles de Markov cachés (MMC) construit autour de ce modèle. Le module de reconnaissance cherche, en une seule passe, à discriminer l'information pertinente, caractérisée par un ensemble de requêtes alphabétiques, numériques ou alphanumériques, de l'information non pertinente, caractérisée par un modèle de remplissage. Une seconde contribution réside dans l'amélioration de la discrimination locale des observations des lignes par l'utilisation d'un réseau de neurones profond. Ce dernier permet également d'inférer une représentation de haut niveau des observations et donc d'automatiser le processus d'extraction des caractéristiques. Il en résulte un système complet, générique et industrialisable, répondant à des besoins émergents dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des documents non-contraints.
Style APA, Harvard, Vancouver, ISO itp.
13

Montreuil, Florent. "Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits". Phd thesis, Rouen, 2011. http://www.theses.fr/2011ROUES047.

Pełny tekst źródła
Streszczenie:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la variabilité de structure des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs,. . . ) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes,. . . ) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique,. . . ) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures
The automatic processing of written documents is a very active field in the industry. Indeed, due to the mass of written documents to process, the automatic analysis becomes a necessity, but the performance of current systems is highly variable according to the types of documents processed. For example, treatment of unconstrained handwritten documents remains an unsolved issue because two technological obstacles that hinder the development of reliable automatic processing of handwritten documents : - the first is the recognition of handwritten in those documents - the second is related to the existence of widely variability in the document structures. This thesis focuses on solving the second bolt in the case of unconstrained handwritten documents. For this, we have developed reliable and robust methods to analyze document structures based on the use of Conditional Random Fields. The choice of Conditional Random Fields is motivated by the ability of these graphical models to take into account the relationships between the various entities of the document (words, phrases, blocks,. . . ) and integrate contextual knowledge. In addition, the use of probabilistic modeling gifted learning overcomes the inherent variability of the documents to be processed. The originality of the thesis also addresses the proposal of a hierarchical approach for extracting joint physical (segmentation of the document into blocks, lines, ldots) and logical (functional interpretation of the physical structure) structures by combining low-level physical features (position, graphic,. . . ) and high-level logical (keyword spotting). The experiments carried out on handwritten letters show that the proposed model represents an interesting solution because of its discriminatory character and his natural ability to integrate and contextualize the characteristics of different kinds
Style APA, Harvard, Vancouver, ISO itp.
14

Montreuil, Florent. "Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits". Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00652301.

Pełny tekst źródła
Streszczenie:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la reconnaissance des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs, ...) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes, ...) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique, ...) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures.
Style APA, Harvard, Vancouver, ISO itp.
15

Ghanmi, Nabil. "Segmentation d'images de documents manuscrits composites : application aux documents de chimie". Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0109.

Pełny tekst źródła
Streszczenie:
Cette thèse traite de la segmentation structurelle de documents issus de cahiers de chimie. Ce travail est utile pour les chimistes en vue de prendre connaissance des conditions des expériences réalisées. Les documents traités sont manuscrits, hétérogènes et multi-scripteurs. Bien que leur structure physique soit relativement simple, une succession de trois régions représentant : la formule chimique de l’expérience, le tableau des produits utilisés et un ou plusieurs paragraphes textuels décrivant le déroulement de l’expérience, les lignes limitrophes des régions portent souvent à confusion, ajouté à cela des irrégularités dans la disposition des cellules du tableau, rendant le travail de séparation un vrai défi. La méthodologie proposée tient compte de ces difficultés en opérant une segmentation à plusieurs niveaux de granularité, et en traitant la segmentation comme un problème de classification. D’abord, l’image du document est segmentée en structures linéaires à l’aide d’un lissage horizontal approprié. Le seuil horizontal combiné avec une tolérance verticale avantage le regroupement des éléments fragmentés de la formule sans trop fusionner le texte. Ces structures linéaires sont classées en Texte ou Graphique en s’appuyant sur des descripteurs structurels spécifiques, caractéristiques des deux classes. Ensuite, la segmentation est poursuivie sur les lignes textuelles pour séparer les lignes du tableau de celles de la description. Nous avons proposé pour cette classification un modèle CAC qui permet de déterminer la séquence optimale d’étiquettes associées à la séquence des lignes d’un document. Le choix de ce type de modèle a été motivé par sa capacité à absorber la variabilité des lignes et à exploiter les informations contextuelles. Enfin, pour le problème de la segmentation de tableaux en cellules, nous avons proposé une méthode hybride qui fait coopérer deux niveaux d’analyse : structurel et syntaxique. Le premier s’appuie sur la présence des lignes graphiques et de l’alignement de texte et d’espaces ; et le deuxième tend à exploiter la cohérence de la syntaxe très réglementée du contenu des cellules. Nous avons proposé, dans ce cadre, une approche contextuelle pour localiser les champs numériques dans le tableau, avec reconnaissance des chiffres isolés et connectés. La thèse étant effectuée dans le cadre d’une convention CIFRE, en collaboration avec la société eNovalys, nous avons implémenté et testé les différentes étapes du système sur une base conséquente de documents de chimie
This thesis deals with chemistry document segmentation and structure analysis. This work aims to help chemists by providing the information on the experiments which have already been carried out. The documents are handwritten, heterogeneous and multi-writers. Although their physical structure is relatively simple, since it consists of a succession of three regions representing: the chemical formula of the experiment, a table of the used products and one or more text blocks describing the experimental procedure, several difficulties are encountered. In fact, the lines located at the region boundaries and the imperfections of the table layout make the separation task a real challenge. The proposed methodology takes into account these difficulties by performing segmentation at several levels and treating the region separation as a classification problem. First, the document image is segmented into linear structures using an appropriate horizontal smoothing. The horizontal threshold combined with a vertical overlapping tolerance favor the consolidation of fragmented elements of the formula without too merge the text. These linear structures are classified in text or graphic based on discriminant structural features. Then, the segmentation is continued on text lines to separate the rows of the table from the lines of the raw text locks. We proposed for this classification, a CRF model for determining the optimal labelling of the line sequence. The choice of this kind of model has been motivated by its ability to absorb the variability of lines and to exploit contextual information. For the segmentation of table into cells, we proposed a hybrid method that includes two levels of analysis: structural and syntactic. The first relies on the presence of graphic lines and the alignment of both text and spaces. The second tends to exploit the coherence of the cell content syntax. We proposed, in this context, a Recognition-based approach using contextual knowledge to detect the numeric fields present in the table. The thesis was carried out in the framework of CIFRE, in collaboration with the eNovalys campany.We have implemented and tested all the steps of the proposed system on a consequent dataset of chemistry documents
Style APA, Harvard, Vancouver, ISO itp.
16

Ghanmi, Nabil. "Segmentation d'images de documents manuscrits composites : application aux documents de chimie". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0109/document.

Pełny tekst źródła
Streszczenie:
Cette thèse traite de la segmentation structurelle de documents issus de cahiers de chimie. Ce travail est utile pour les chimistes en vue de prendre connaissance des conditions des expériences réalisées. Les documents traités sont manuscrits, hétérogènes et multi-scripteurs. Bien que leur structure physique soit relativement simple, une succession de trois régions représentant : la formule chimique de l’expérience, le tableau des produits utilisés et un ou plusieurs paragraphes textuels décrivant le déroulement de l’expérience, les lignes limitrophes des régions portent souvent à confusion, ajouté à cela des irrégularités dans la disposition des cellules du tableau, rendant le travail de séparation un vrai défi. La méthodologie proposée tient compte de ces difficultés en opérant une segmentation à plusieurs niveaux de granularité, et en traitant la segmentation comme un problème de classification. D’abord, l’image du document est segmentée en structures linéaires à l’aide d’un lissage horizontal approprié. Le seuil horizontal combiné avec une tolérance verticale avantage le regroupement des éléments fragmentés de la formule sans trop fusionner le texte. Ces structures linéaires sont classées en Texte ou Graphique en s’appuyant sur des descripteurs structurels spécifiques, caractéristiques des deux classes. Ensuite, la segmentation est poursuivie sur les lignes textuelles pour séparer les lignes du tableau de celles de la description. Nous avons proposé pour cette classification un modèle CAC qui permet de déterminer la séquence optimale d’étiquettes associées à la séquence des lignes d’un document. Le choix de ce type de modèle a été motivé par sa capacité à absorber la variabilité des lignes et à exploiter les informations contextuelles. Enfin, pour le problème de la segmentation de tableaux en cellules, nous avons proposé une méthode hybride qui fait coopérer deux niveaux d’analyse : structurel et syntaxique. Le premier s’appuie sur la présence des lignes graphiques et de l’alignement de texte et d’espaces ; et le deuxième tend à exploiter la cohérence de la syntaxe très réglementée du contenu des cellules. Nous avons proposé, dans ce cadre, une approche contextuelle pour localiser les champs numériques dans le tableau, avec reconnaissance des chiffres isolés et connectés. La thèse étant effectuée dans le cadre d’une convention CIFRE, en collaboration avec la société eNovalys, nous avons implémenté et testé les différentes étapes du système sur une base conséquente de documents de chimie
This thesis deals with chemistry document segmentation and structure analysis. This work aims to help chemists by providing the information on the experiments which have already been carried out. The documents are handwritten, heterogeneous and multi-writers. Although their physical structure is relatively simple, since it consists of a succession of three regions representing: the chemical formula of the experiment, a table of the used products and one or more text blocks describing the experimental procedure, several difficulties are encountered. In fact, the lines located at the region boundaries and the imperfections of the table layout make the separation task a real challenge. The proposed methodology takes into account these difficulties by performing segmentation at several levels and treating the region separation as a classification problem. First, the document image is segmented into linear structures using an appropriate horizontal smoothing. The horizontal threshold combined with a vertical overlapping tolerance favor the consolidation of fragmented elements of the formula without too merge the text. These linear structures are classified in text or graphic based on discriminant structural features. Then, the segmentation is continued on text lines to separate the rows of the table from the lines of the raw text locks. We proposed for this classification, a CRF model for determining the optimal labelling of the line sequence. The choice of this kind of model has been motivated by its ability to absorb the variability of lines and to exploit contextual information. For the segmentation of table into cells, we proposed a hybrid method that includes two levels of analysis: structural and syntactic. The first relies on the presence of graphic lines and the alignment of both text and spaces. The second tends to exploit the coherence of the cell content syntax. We proposed, in this context, a Recognition-based approach using contextual knowledge to detect the numeric fields present in the table. The thesis was carried out in the framework of CIFRE, in collaboration with the eNovalys campany.We have implemented and tested all the steps of the proposed system on a consequent dataset of chemistry documents
Style APA, Harvard, Vancouver, ISO itp.
17

Kesiman, Made Windu Antara. "Document image analysis of Balinese palm leaf manuscripts". Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS013/document.

Pełny tekst źródła
Streszczenie:
Les collections de manuscrits sur feuilles de palmier sont devenues une partie intégrante de la culture et de la vie des peuples de l'Asie du Sud-Est. Avec l’augmentation des projets de numérisation des documents patrimoniaux à travers le monde, les collections de manuscrits sur feuilles de palmier ont finalement attiré l'attention des chercheurs en analyse d'images de documents (AID). Les travaux de recherche menés dans le cadre de cette thèse ont porté sur les manuscrits d'Indonésie, et en particulier sur les manuscrits de Bali. Nos travaux visent à proposer des méthodes d’analyse pour les manuscrits sur feuilles de palmier. En effet, ces collections offrent de nouveaux défis car elles utilisent, d’une part, un support spécifique : les feuilles de palmier, et d’autre part, un langage et un script qui n'ont jamais été analysés auparavant. Prenant en compte, le contexte et les conditions de stockage des collections de manuscrits sur feuilles de palmier à Bali, nos travaux ont pour objectif d’apporter une valeur ajoutée aux manuscrits numérisés en développant des outils pour analyser, translittérer et indexer le contenu des manuscrits sur feuilles de palmier. Ces systèmes rendront ces manuscrits plus accessibles, lisibles et compréhensibles à un public plus large ainsi que pour les chercheurs et les étudiants du monde entier. Cette thèse a permis de développer un système d’AID pour les images de documents sur feuilles de palmier, comprenant plusieurs tâches de traitement d'images : numérisation du document, construction de la vérité terrain, binarisation, segmentation des lignes de texte et des glyphes, la reconnaissance des glyphes et des mots, translittération et l’indexation de document. Nous avons ainsi créé le premier corpus et jeu de données de manuscrits balinais sur feuilles de palmier. Ce corpus est actuellement disponible pour les chercheurs en AID. Nous avons également développé un système de reconnaissance des glyphes et un système de translittération automatique des manuscrits balinais. Cette thèse propose un schéma complet de reconnaissance de glyphes spatialement catégorisé pour la translittération des manuscrits balinais sur feuilles de palmier. Le schéma proposé comprend six tâches : la segmentation de lignes de texte et de glyphes, un processus de classification de glyphes, la détection de la position spatiale pour la catégorisation des glyphes, une reconnaissance globale et catégorisée des glyphes, la sélection des glyphes et la translittération basée sur des règles phonologiques. La translittération automatique de l'écriture balinaise nécessite de mettre en œuvre des mécanismes de représentation des connaissances et des règles phonologiques. Nous proposons un système de translittération sans segmentation basée sur la méthode LSTM. Celui-ci a été testé sur des données réelles et synthétiques. Il comprend un schéma d'apprentissage à deux niveaux pouvant s’appliquer au niveau du mot et au niveau de la ligne de texte
The collection of palm leaf manuscripts is an important part of Southeast Asian people’s culture and life. Following the increasing of the digitization projects of heritage documents around the world, the collection of palm leaf manuscripts in Southeast Asia finally attracted the attention of researchers in document image analysis (DIA). The research work conducted for this dissertation focused on the heritage documents of the collection of palm leaf manuscripts from Indonesia, especially the palm leaf manuscripts from Bali. This dissertation took part in exploring DIA researches for palm leaf manuscripts collection. This collection offers new challenges for DIA researches because it uses palm leaf as writing media and also with a language and script that have never been analyzed before. Motivated by the contextual situations and real conditions of the palm leaf manuscript collections in Bali, this research tried to bring added value to digitized palm leaf manuscripts by developing tools to analyze, to transliterate and to index the content of palm leaf manuscripts. These systems aim at making palm leaf manuscripts more accessible, readable and understandable to a wider audience and, to scholars and students all over the world. This research developed a DIA system for document images of palm leaf manuscripts, that includes several image processing tasks, beginning with digitization of the document, ground truth construction, binarization, text line and glyph segmentation, ending with glyph and word recognition, transliteration and document indexing and retrieval. In this research, we created the first corpus and dataset of the Balinese palm leaf manuscripts for the DIA research community. We also developed the glyph recognition system and the automatic transliteration system for the Balinese palm leaf manuscripts. This dissertation proposed a complete scheme of spatially categorized glyph recognition for the transliteration of Balinese palm leaf manuscripts. The proposed scheme consists of six tasks: the text line and glyph segmentation, the glyph ordering process, the detection of the spatial position for glyph category, the global and categorized glyph recognition, the option selection for glyph recognition and the transliteration with phonological rules-based machine. An implementation of knowledge representation and phonological rules for the automatic transliteration of Balinese script on palm leaf manuscript is proposed. The adaptation of a segmentation-free LSTM-based transliteration system with the generated synthetic dataset and the training schemes at two different levels (word level and text line level) is also proposed
Style APA, Harvard, Vancouver, ISO itp.
18

Constum, Thomas. "Extractiοn d'infοrmatiοn dans des dοcuments histοriques à l'aide de grands mοdèles multimοdaux". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMR083.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur l'extraction automatique d'informations à partir de documents manuscrits historiques, dans le cadre des projets POPP et EXO-POPP. Le projet POPP se concentre sur les tableaux de recensement manuscrits de Paris (1921-1946), tandis qu'EXO-POPP traite des actes de mariage du département de la Seine (1880-1940). L’objectif principal est de développer une architecture de bout en bout pour l’extraction d’information à partir de documents complets, évitant les étapes explicites de segmentation.Dans un premier temps, une chaîne de traitement séquentielle a été développée pour le projet POPP, permettant l’extraction automatique des informations de 9 millions d’individus sur 300 000 pages. Ensuite, une architecture de bout en bout pour l'extraction d'information a été mise en place pour EXO-POPP, s’appuyant sur un encodeur convolutif et un décodeur Transformer, avec insertion de symboles spéciaux encodant les informations à extraire.Par la suite, l’intégration de grands modèles de langue basés sur l’architecture Transformer a conduit à la création du modèle DANIEL, qui a atteint un nouvel état de l’art sur plusieurs jeux de données publics (RIMES 2009 et M-POPP pour la reconnaissance d'écriture, IAM NER pour l'extraction d'information) tout en présentant une vitesse d'inférence supérieure aux approches existantes. Enfin, deux jeux de données publics issus des projets POPP et EXO-POPP ont été mis à disposition, ainsi que le code et les poids du modèle DANIEL
This thesis focuses on automatic information extraction from historical handwritten documents, within the framework of the POPP and EXO-POPP projects. The POPP project focuses on handwritten census tables from Paris (1921-1946), while EXO-POPP deals with marriage records from the Seine department (1880-1940). The main objective is to develop an end-to-end architecture for information extraction from complete documents, avoiding explicit segmentation steps.Initially, a sequential processing pipeline was developed for the POPP project, enabling the automatic extraction of information for 9 million individuals across 300,000 pages. Then, an end-to-end architecture for information extraction was implemented for EXO-POPP, based on a convolutional encoder and a Transformer decoder, with the insertion of special symbols encoding the information to be extracted.Subsequently, the integration of large language models based on the Transformer architecture led to the creation of the DANIEL model, which achieved a new state-of-the-art on several public datasets (RIMES 2009 and M-POPP for handwriting recognition, IAM NER for information extraction), while offering faster inference compared to existing approaches. Finally, two public datasets from the POPP and EXO-POPP projects were made available, along with the code and weights of the DANIEL model
Style APA, Harvard, Vancouver, ISO itp.
19

Ghorbel, Adam. "Generalized Haar-like filters for document analysis : application to word spotting and text extraction from comics". Thesis, La Rochelle, 2016. http://www.theses.fr/2016LAROS008/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous avons proposé une approche analytique multi-échelle pour le word spotting dans les documents manuscrits. Le modèle proposé fonctionne selon deux niveaux différents. Un module de filtrage global permettant de définir plusieurs zones candidates de la requête dans le document testé. Ensuite, l’échelle de l’observation est modifiée à un niveau inférieur afin d’affiner les résultats et sélectionner uniquement ceux qui sont vraiment pertinents. Cette approche de word spotting est basée sur des familles généralisées de filtres de Haar qui s’adaptent à chaque requête pour procéder au processus de spotting et aussi sur un principe de vote qui permet de choisir l’emplacement spatial où les réponses générées par les filtres sont accumulées. Nous avons en plus proposé une autre approche pour l’extraction de texte du graphique dans les bandes dessinées. Cette approche se base essentiellement sur les caractéristiques pseudo-Haar qui sont générées par l’application des filtres généralisés de Haar sur l’image de bande dessinée. Cette approche est une approche analytique et ne nécessite aucun processus d’extraction ni des bulles ni d’autres composants
The presented thesis follows two directions. The first one disposes a technique for text and graphic separation in comics. The second one points out a learning free segmentation free word spotting framework based on the query-by-string problem for manuscript documents. The two approaches are based on human perception characteristics. Indeed, they were inspired by several characteristics of human vision such as the Preattentive processing. These characteristics guide us to introduce two multi scale approaches for two different document analysis tasks which are text extraction from comics and word spotting in manuscript document. These two approaches are based on applying generalized Haar-like filters globally on each document image whatever its type. Describing and detailing the use of such features throughout this thesis, we offer the researches of document image analysis field a new line of research that has to be more explored in future. The two approaches are layout segmentation free and the generalized Haar-like filters are applied globally on the image. Moreover, no binarization step of the processed document is done in order to avoid losing data that may influence the accuracy of the two frameworks. Indeed, any learning step is performed. Thus, we avoid the process of extraction features a priori which will be performed automatically, taking into consideration the different characteristics of the documents
Style APA, Harvard, Vancouver, ISO itp.
20

LETURCQ, ALEXIS. "La reconnaissance des caracteres manuscrits sans apprentissage". Paris 6, 1990. http://www.theses.fr/1990PA066209.

Pełny tekst źródła
Streszczenie:
Un systeme de reconnaissance des caracteres manuscrits est propose, base sur une approche structurelle/syntactique. Dans le programme, des operateurs invariants vis-a-vis de certaines transformations morphologiques sont utilises, afin de trouver une description pertinente des caracteres. Tout d'abord le caractere, qui est enregistre numeriquement dans l'ordinateur sous la forme d'une image binaire, est aminci (ou squelettise) avec un nouvel algorithme (prevervant les proprietes topologiques de l'original, mais reduisant le nombre de pixels significatifs de l'objet a analyser), permettant ainsi d'obtenir une image de lignes d'epaisseur constante et egale a un. Le programme extrait ensuite des primitives geometriques de cette nouvelle representation, a l'aide d'operateurs invariants vis-a-vis de deformations morphologiques telles que translations, faibles rotations et etirements. La forme de l'objet aminci est ainsi decrite a l'aide d'expressions singulieres telles que: les extremites de traits, les points d'intersection, les changements de direction le long d'une ligne. Ces primitives sont projetees dans deux directions (horizontalement et verticalement), et sont enregistrees dans deux chaines ascii que l'on designe comme la signature symbolique du caractere. La comparaison entre un caractere inconnu et un caractere reference consiste alors a comparer leurs signatures. Enfin, quelques filtres de restauration d'image sont proposes en vue de reconstruire les caracteres qui ne peuvent etre reconnus parce que trop alteres. La methode est testee sur un ensemble de lettres majuscules, et une application industrielle est decrite
Style APA, Harvard, Vancouver, ISO itp.
21

Feray, Nicolas. "Reconnaissance de formes : application aux chiffres manuscrits". Rouen, 1995. http://www.theses.fr/1995ROUES028.

Pełny tekst źródła
Streszczenie:
Cette thèse traite de la reconnaissance des chiffres manuscrits hors lignes. Le système de reconnaissance propose est constitué de deux classifieurs fondamentalement différents. Les chapitres 3, 4 et 5 sont consacrés à l'étude du premier classifieur. Celui-ci analyse l'image du chiffre à reconnaître par l'intermédiaire de considérations locales sur sa forme. C'est pourquoi, nous qualifions de vision locale le mécanisme de perception du chiffre. Le choix des primitives et leur exploitation séquentielle par un arbre de décision sont rigoureux et basés sur le concept de l'information transmise par une primitive. Le chapitre 6 développe le deuxième classifieur. Celui-ci considère globalement l'image du chiffre. Le mécanisme de perception de la forme est qualifié de vision globale. La phase de reconnaissance est basée sur la minimisation de la distance du chiffre à des modèles originaux appelés profils de reconnaissance. Ces derniers sont chargés de modéliser les différentes variabilités d'écriture des chiffres. Le dernier chapitre propose différentes architectures pour faire coopérer les visions locale et globale. Au-delà d'une simple coopération sur l'étage de sortie des classifieurs, une architecture permettant un échange d'information de la vision locale vers la vision globale est proposée et testée. Les méthodes de reconnaissance proposées sont testées sur la base de données americaine NIST.
Style APA, Harvard, Vancouver, ISO itp.
22

Loy, Wee Wang Landau I. D. "Reconnaissance en ligne de caractères alphanumériques manuscrits". S. l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00297291.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
23

Vincent, Nicole. "Contribution à la reconnaissance de textes multipolices". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37619142z.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
24

Lamy, Bertrand. "Reconnaissance de caracteres manuscrits par combinaison de modeles connexionnistes". Paris 6, 1995. http://www.theses.fr/1995PA066365.

Pełny tekst źródła
Streszczenie:
La reconnaissance de caracteres manuscrits est un domaine tres actif de la recherche en informatique: la variabilite de l'ecriture manuscrite permet en effet de confronter les algorithmes de classification et d'apprentissage a des problemes difficiles et realistes. Les reseaux de neurones ont montre des resultats remarquables dans ce domaine, mais la necessite de performances elevees dans les applications reelles pousse la recherche vers des modeles connexionnistes de plus en plus complexes. Cette these propose des alternatives possibles dans la conception de systemes de classification automatique. Dans un premier temps, nous montrons que l'utilisation de modeles plus simples, bien qu'elle ne permette pas d'atteindre des performances comparables a celles des meilleurs systemes actuels, offre cependant un premier compromis entre performance et rapidite de calcul. Nous presentons ensuite une etude detaillee d'une approche recemment utilisee en classification: la combinaison de modeles. Nous montrons que l'independance des modeles impliques dans un tel schema est une condition necessaire a l'amelioration des performances. En particulier, sur le probleme de la reconnaissance des caracteres, nous montrons que dans le cas de reseaux identiques, a poids initiaux differents, l'independance n'est pas systematique: le gain en combinaison peut etre nul. Pour clarifier la necessite d'independance, nous montrons que la combinaison de deux systemes construits a partir de codages differents et d'architectures differentes, arrive a produire des performances de tres haut niveau. Une etude comparative de la capacite de rejet de cette methode nous permet de conclure qu'elle surpasse certaines approches existantes
Style APA, Harvard, Vancouver, ISO itp.
25

Marti, Roland. "Handschrift, Text, Textgruppe, Literatur : Untersuchungen zur inneren Gliederung der frühen Literatur aus dem ostslavischen Sprachbereich in den Handschriften des 11. bis 14. Jahrhunderts /". Wiesbaden : O. Harrassowitz, 1989. http://catalogue.bnf.fr/ark:/12148/cb35541795f.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
26

Lemaitre, Melanie. "Approche markovienne bidimensionnelle d'analyse et de reconnaissance de documents manuscrits". Phd thesis, Université René Descartes - Paris V, 2007. http://tel.archives-ouvertes.fr/tel-00273255.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous présentons une approche bidimensionnelle markovienne générale pour l'analyse et la reconnaissance de documents manuscrits appelée AMBRES (Approche Markovienne Bidimensionnelle pour la Reconnaissance et la Segmentation d'images). Elle est fondée sur les champs de Markov, la programmation dynamique 2D et une analyse bidimensionnelle de l'image.

AMBRES a été appliquée avec succès à des tâches aussi diverses que la reconnaissance de caractères et de mots manuscrits isolés, la structuration de documents manuscrits et la reconnaissance de logos et pourrait être étendue à d'autres problématiques du domaine de la vision.

Des protocoles rigoureux ont été utilisés pour l'étude du système et de ses paramètres ainsi que pour l'évaluation des performances. En particulier, AMBRES a pu être validée au sein de la campagne d'évaluation RIMES (Reconnaissance et Indexation de données Manuscrites et de fac similES).
Style APA, Harvard, Vancouver, ISO itp.
27

Ronnet, Jean-Christophe. "Etude et réalisations d'un dispositif de reconnaissance de chiffres manuscrits". Paris 6, 1987. http://www.theses.fr/1987PA066204.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
28

Bilane, Pétra. "Contributions à l'indexation et à la reconnaissance des manuscrits syriaques". Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0029/these.pdf.

Pełny tekst źródła
Streszczenie:
Cette thèse est dédiée à l’exploration informatique de manuscrits syriaques, c’est la première étude de ce type mise en œuvre. Le syriaque est une langue qui s’est développé à l’est du bassin méditerranéen, il y a plus de vingt siècles et qui aujourd’hui est encore pratiquée. La présentation de l’histoire du développement de cette langue fait l’objet du premier chapitre. Le syriaque s’écrit de droite à gauche, avec un aspect très singulier, un penché d’un angle d’environ 45° qui rend les algorithmes de traitement et d’analyse de documents développés pour les autres écritures inopérants. Dans le second chapitre, après nous être intéressés à la description et l’extraction des structures des documents, nous avons élaboré une méthode de segmentation des mots qui prend en compte ce penché ; elle nous conduit à une trentaine de formes stables qui sont des lettres individuelles verticales et des « n-grammes » constitués par des lettres penchées. Dans la deuxième partie de la thèse, nous nous sommes intéressés au contenu des documents à des fins d’indexation. Nous avons développé une méthode de repérage de mots qui permet de retrouver, dans un document, toutes les occurrences d’un mot selon plusieurs modes de requêtes (word spotting, word retrieval). Elle repose sur une similarité de forme évaluée à partir d’une analyse très fine de l’orientation du tracé de l’écriture. Le dernier chapitre est une première contribution à la transcription assistée des manuscrits syriaques qui repose sur la segmentation des mots décrite ci-dessus. Nous montrons que la transcription, qui s’appuie sur l’interaction, est en rupture avec la traditionnelle démarche de reconnaissance par OCR
This thesis is dedicated to the computed exploration of Syriac manuscripts; it is the first study of the sort. Syriac is a language that developed in the eastern region of the Mediterranean coast, about twenty centuries ago, and is still in practice, today. The history as well as the development of the language is presented in the first chapter. Syriac is written from right to left with a distinct feature which is a tilt of about 45Ê which renders classical signal and document analysis algorithms which were developed for other languages rather useless. In the second chapter, after describing and extracting the documents structure, we developed a word segmentation method that takes this tilt into consideration, this lead us to about thirty stable shapes which are vertical letters and n-grammes made out of titled letters. In the second part of this thesis, we were interested in the content of the documents for indexation purposes. We developed a word spotting method that allowed us to find all the occurrences of a word in a document using several word query approaches (word spotting, word retrieval). It is based on shape similarity evaluated after a thorough analysis of the orientations of the handwriting. The last chapter consists of a first contribution to assisted transcription of Syriac manuscripts which relies on the above described segmentation. We showed that transcription based on interaction, is in conflict with the traditional approaches of OCR recognition
Style APA, Harvard, Vancouver, ISO itp.
29

Silbermann, Martine. "Reconnaissance de schémas manuscrits : contribution à l'étude d'objets en mouvement". Grenoble INPG, 1986. http://www.theses.fr/1986INPG0134.

Pełny tekst źródła
Streszczenie:
Après squelettisation, l'image du schéma est soumise à la phase de reconnaissance. Une première méthode de type structurelle est proposée et appliquée aux grafcet. Une seconde méthode, mise en œuvre sur les symboles électroniques, s'articule autour des notions d'invariants topologiques et de descripteurs de fourier. Dans un but de généralisation de cette dernière notion, nous avons été amenés à définir une transformée étroitement liée aux transformées de fourier standards, et dont la principale propriété est de traiter identiquement tous les déplacements
Style APA, Harvard, Vancouver, ISO itp.
30

Silbermann, Martine. "Reconnaissance de schémas manuscrits contribution à l'étude d'objets en mouvement /". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37601154t.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
31

Ronnet, Jean-Christophe. "Etude et réalisation d'un dispositif de reconnaissance de chiffres manuscrits". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37609460h.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
32

HERVIEU, MARC. "Etude architecturale d'un systeme de reconnaissance en ligne de caracteres manuscrits". Paris 6, 1996. http://www.theses.fr/1996PA066585.

Pełny tekst źródła
Streszczenie:
Le developpement des pda (personal digital assistant) offre une application de tout premier plan aux systemes de reconnaissance de caracteres manuscrits en ligne. Malheureusement, les systemes de reconnaissance actuels pechent par manque de performance. Ainsi, le developpement de cette technologie encore naissante doit faire face a des taux de reconnaissance trop faibles et des temps de traitement trop eleves. Cette these se base sur un systeme de reconnaissance en ligne d'ecriture manuscrite developpe a iep (laboratoires d'electronique philips s. A. S. ). Nous proposons plus particulierement un decoupage materiel/logiciel permettant d'accelerer la reconnaissance afin d'atteindre un debit qui soit suffisant pour eviter toute latence au niveau de l'ecrivain. L'integration materielle de la fonction classifieur realisant le goulot d'etranglement dans le systeme de reconnaissance existant ainsi que la restructuration de l'application logicielle permettent un fonctionnement en pipeline des differents processus identifies. Ce classifieur materiel nomme phrases, qui est l'acronyme de processor for handwriting recognition with application specific element synthesis, a ete developpe grace a un outil de synthese d'architectures nomme alma permettant d'explorer l'espace des solutions architecturales avec un jeu de parametres de generation. L'architecture du classifieur est guidee par des imperatifs de surface de silicium minimum. Ainsi, notre but ultime est d'integrer ce classifieur comme une macro-cellule d'un circuit monolithique integrant egalement un cur risc et un bus systeme afin de rendre la tache de reconnaissance de caracteres manuscrits entierement autonome. La validation de l'architecture proposee est realisee en se basant sur la modelisation vhdl, d'une carte coprocesseur permettant au classifieur materiel phrases de communiquer avec l'application logicielle.
Style APA, Harvard, Vancouver, ISO itp.
33

AUGER, JEAN-MARIE. "Methodes neuronales pour la reconnaissance de caracteres manuscrits : comparaison et cooperation". Paris 6, 1993. http://www.theses.fr/1993PA066296.

Pełny tekst źródła
Streszczenie:
Sur un probleme de reconnaissance de chiffres manuscrits isoles, sont presentes les resultats d'une comparaison systematique de cinq algorithmes neuronaux et de deux methodes statistiques non parametriques realisees sur une base d'environ quinze mille chiffres provenant d'un centre de tri postal. Cette comparaison s'est concentree sur l'un des aspects du probleme, a savoir, les capacites de reconnaissance et de rejet des modeles. La cooperation entre modeles est ensuite etudiee. Celle-ci s'est inscrite tout naturellement dans la suite de l'etude comparative qui a mis en evidence des qualites complementaires des modeles. Les experimentations ont en particulier montre qu'un reseau multi-couche est un moyen simple et efficace de fusionner les reponses de plusieurs reseaux. Elles ont egalement montre que des gains de performances importants, en particulier en termes de capacites de rejet, pouvaient etre obtenus en faisant cooperer deux modeles de types reseau multi-couche a connexions locales et poids partages et lasso mais que cette strategie de cooperation pouvait egalement etre appliquee a differentes simulations d'un meme reseau multi-couche. Finalement, une implementation parallele de l'algorithme des cartes topologiques sur un hypercube de transputers est proposee et evaluee experimentalement. Les accelerations mesurees montrent l'efficacite de la parallelisation
Style APA, Harvard, Vancouver, ISO itp.
34

Delaye, Adrien. "Méta-modèles de positionnement spatial pour la reconnaissance de tracé manuscrits". Rennes, INSA, 2011. https://tel.archives-ouvertes.fr/tel-00651446.

Pełny tekst źródła
Streszczenie:
Nous introduisons les meta-modeles spatiaux pour la representation generique de relations spatiales entre objets manuscrits. Ces modeles peuvent etre appris a partir de donnees et offrent une precision accrue en prenant en compte les formes des objets. Leur definition floue permet la gestion de l’imprecision et offre une description conforme a l’intuition. Un meta-modele a un pouvoir de prediction qui permet de decrire la relation modelisee dans l’image, par rapport a un objet de reference. Cette capacite rend possible la visualisation des modeles et constitue un outil pour segmenter les traces en fonction de leur contexte. Nous proposons une representation des symboles manuscrits structures reposant uniquement la description fine de leur information spatiale par ces modeles. La segmentation des traces en primitives est guidee par la capacite de prediction des modeles. Les resultats confirment l'importance de l'information spatiale et valident la qualite de la modelisation proposee
Spatial meta-models are introduced for a generic description of spatial relations between handwritten objetcs. The models are trainable from data and offer an increased precision thanks to the consideration of objetcs shapes. The fuzzy definition allows to deal with imprecision and provides an intuitive modeling. Meta-models have a predictive ability which enables the description of the modeled relation in the image space, relatively to a reference object. It allows the model visualization and provide a tool for context-driven object segmentation. We proporse a resentation of structured handwritten symbols based only on the description of their spatial information with meta-models. Segmentation of objetcs into primitives is driven by the models prediction ability. Results confirme the importance of spatial information and validate the quality of the proposed models
Style APA, Harvard, Vancouver, ISO itp.
35

Kinder, Alain Bouvier Gérard. "Procédé de reconnaissance syntaxique des caractères alphanumériques manuscrits réalisation micro-informatique /". S. l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00298254.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
36

Moradkhan, Romel. "Détection des points critiques d'une forme : application à la reconnaissance de caractères manuscrits". Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090012.

Pełny tekst źródła
Streszczenie:
La représentation de formes bidimensionnelles au moyen de leurs contours est d'un grand intérêt car beaucoup d'objets, par exemple les caractères manuscrits ou imprimés, peuvent être reconnus à partir de leur contour. La détection des points les plus significatifs (critiques) d'un contour digitalisé continue à être un domaine important de recherche du fait de sa complexité et de ces promesses. La première partie de notre travail est consacrée aux méthodes de détection des points critiques des contours digitalisés. Nous proposons deux nouvelles méthodes: la première est basée sur la notion de Co angularité; la deuxième sur la notion d'axe de symétrie. Dans la deuxième partie nous traitons du problème de la reconnaissance de caractères manuscrits à partir de leur contour. Nous avons proposé un algorithme de reconnaissance hiérarchique basé sur l'appariement structurel flexible et continu
The représentation of two-dimensional patterns by their contours is of great importance since many patterns, such as hand-written or printed characters, can be recognized by their contours. Because of its complexity the détection of dominant points of digitalized contours continues to be an important area of research. The first part of our work covers dominant point détection methods of digitalized curves (contours). After a survey of existing techniques we propose two new and efficient methods: the first is based on the notion of "co-angularity"; the second on the notion of "axis of symmetry". In the second part we focus on the problem of hand-written character récognition. We have proposed a hierarchical algorithm based on ctural matching which is both flexible and continuous
Style APA, Harvard, Vancouver, ISO itp.
37

Houssein, Ali. "Reconnaissance globale de mots manuscrits arabes basée sur une recherche avec un dictionnaire". Rouen, 1998. http://www.theses.fr/1998ROUES049.

Pełny tekst źródła
Streszczenie:
Dans ce document nous décrivons une méthode de reconnaissance globale des mots manuscrits arabes. L'acquisition des mots est effectuée par un scanner. Tout d'abord des indices visuels appelés primitives sont choisis sur le mot selon le critère de l'importance de l'information amenée et en privilégiant la facilité de calcul. Ces primitives sont codées par leur nombre d'apparition dans le mot, pour former un vecteur de caractéristiques. La variabilité de l'écriture donne des vecteurs différents pour le même mot, mais le codage des primitives peut regrouper des mots non ressemblants avec le même code. Le vecteur de caractéristiques est choisi avec 7 primitives qui donnent le nombre des traces, des alifs isolés, des boucles, des points situés au-dessus et au-dessous de trace, des hampes et des jambes. Pour générer les vecteurs proches du mot recherché, la variation du nombre des primitives dans le mot est analysée. On évalue le degré de ressemblance des vecteurs proches pour classer les candidats dans une liste selon le nombre de leurs primitives. Deux méthodes aux performances similaires sont retenues. La première est la fonction discriminante qui est une fonction linéaire des écarts entre le nombre de primitives de deux vecteurs. Les coefficients de cette fonction discriminante sont proportionnels à la variance des primitives. La deuxième méthode est la distance de Mahalanobis, qui est une fonction quadratique des écarts entre le nombre de primitives de deux vecteurs. Les résultats pour les deux méthodes sont semblables. Le dictionnaire est construit avec une structure d'arbre binaire de recherche ou chaque nœud contient un vecteur de primitives avec l'ensemble des mots qui sont associes a ce vecteur. Le parcours de l'arbre est très rapide et les comparaisons avec les mots du dictionnaire sont effectués avec le calcul du degré de ressemblance. Tout en ayant un nombre très faible de modèles dans le dictionnaire, la génération des vecteurs proches nous donne les moyens de rechercher toutes les possibilités. Les résultats sont analysés avec l'augmentation du nombre de modèles de mots des différents scripteurs dans le dictionnaire et en élargissant l'intervalle de recherche.
Style APA, Harvard, Vancouver, ISO itp.
38

Thomas, Simon. "Extraction d'information dans des documents manuscrits non contraints : application au traitement automatique des courriers entrants manuscrits". Rouen, 2012. http://www.theses.fr/2012ROUES048.

Pełny tekst źródła
Streszczenie:
Malgré l’entrée récente de notre monde dans l’ère du tout numérique, de nombreux documents manuscrits continuent à s’échanger, obligeant nos sociétés et administrations à faire face au traitement de ces masses de documents. Le traitement automatique de ces documents nécessite d’accéder à un échantillon inconnu mais pertinent de leur contenu et implique de prendre en compte trois points essentiels : la segmentation du document en entités comparable à l’information recherchée, la reconnaissance de ces entités recherchées et le rejet des entités non pertinentes. Nous nous démarquons des approches classiques de lecture complète de documents et de détection de mots clés en parallélisant ces trois traitements en une approche d’extraction d’information. Une première contribution réside dans la conception d’un modèle de ligne générique pour l’extraction d’information et l’implémentation d’un système complet à base de modèles de Markov cachés (MMC) construit autour de ce modèle. Le module de reconnaissance cherche, en une seule passe, à discriminer l’information pertinente, caractérisée par un ensemble de requêtes alphabétiques, numériques ou alphanumériques, de l’information non pertinente, caractérisée par un modèle de remplissage. Une seconde contribution réside dans l’amélioration de la discrimination locale des observations des lignes par l’utilisation d’un réseau de neurones profond. Ce dernier permet également d’inférer une représentation de haut niveau des observations et donc d’automatiser le processus d’extraction des caractéristiques. Il en résulte un système complet, générique et industrialisable, répondant à des besoins émergents dans le domaine de la lecture automatique de documents manuscrits : l’extraction d’informations complexes dans des documents non-contraints
Despite the avenment of our world into the digital era, a large amount of handwritten documents continue to be exchanged, forcing our companies and administrations to cope with the processing of masses of documents. Automatic processing of these documents requires access to an unknown but relevant part of their content, and implies taking into account three key points : the document segmentation into relevant entities, their recognition and the rejection of irrelevant entities. Contrary to traditional approaches (full documents reading or keyword detection), all processes are parallelized leading to an information extraction approach. The first contribution of the present work is the design of a generic text line model for information extraction purpose and the implementation of a complete system based on Hidden Markov Models (HMM) constrained by this model. In one pass, the recognition module seeks to discriminate relevant information, characterized by a set of alphabetic, numeric or alphanumeric queries, with the irrelevant information, characterized by a filler model. A second contribution concerns the improvement of the local frame discrimination by using a deep neural network. This allows one to infer high-level representation for the frames and thus automate the feature extraction process. These result is a complete, generic and industrially system, responding to emerging needs in the field of handwritten document automatic reading : the extraction of complex information in unconstrained documents
Style APA, Harvard, Vancouver, ISO itp.
39

Humbert, Geneviève. "Premières recherches sur le Kitâb de Si͏̈bawayhi". Paris 8, 1992. http://www.theses.fr/1992PA080702.

Pełny tekst źródła
Streszczenie:
L'objet de la these est l'histoire du texte du plus ancien et du plus important des ouvrages ecrits sur la grammaire arabe, le kitab de sibawayhi (m. Vers 180 796). Les sources utilisees sont les manuscrits conserves : 77 ont ete retrouves, 58 examines et 47 decrits (onze copies, tardives et fautives, ont ete laissees de cote pour le moment). L'analyse des chaines de transmission contenues dans ces manuscripts, ainsi que d'autres documents (gloses, colophons et autres souscriptions), a permis de degager deux grandes etapes de l'histoire du texte : edition du kitab par al-mubarrad (m. En 285 898), avec constitution d'un corpus de gloses insere dans le texte ; large diffusion de cette recension, a la fois en orient, avec, comme relais principaux abu 'ali 1-farisi et al-zamakhshari, et en occident, ou le kitab est introduit, en andalus, par al-rabahi. L'edition d'al-mubarrad a pratiquement elimine toute autre recension. Une exception cependant : un namuscrit du 5e xie siecle (manuscrit 1a) conserve une autre version, qui pourrait etre en relation avec le rival "koufien" d'al-mubarrad : tha'lab (m. En 291 904). La comparaison entre le manuscrit 1a et l'edition imprimee montre que, sur de nombreux points, celle-ci doit etre corrigee : plusieurs passages importants reprennent alors en sens, qu'ils avaient jusqu'a present perdu
This thesis studies the history of the text of the earliest extant work on arabic grammar : al-kotab by sibawayhi (died ca. 180 796). The sources used are the manuscripts of the text : out of 77 known manuscripts, 58 have been examined and 47 described (elven manuscripts, flawed and late, have been left aside for the moment). The analysis of the chains of transmitters cited in the manuscripts, as well as of other evidence (glosses, colophons and other scribal notes), points to two main stages in the text's history : 1) edition of kitab by al-mubarrad (d. In 285 898), who introduced numerous glosses into the text, 2) and wide diffusion of this edition in both the east, notably by abu 'ali l-farisi and al-zamakhshari, and in the west, where the text was introduced in al-andalus by al-rabahi. Al-mubarrad's corpus became the standard edition of kitab, which had all but eliminated the others. One exception should, however, be noted : the manuscript la (5th xith century), which preserves an older state of the text, without the glosses, might be related to the "kufian" rival of al-mubarrad : tha'lab. Many passages of kitab can be restored with the help of the newly discovered manuscript 1a
Style APA, Harvard, Vancouver, ISO itp.
40

Arrivault, Denis. "Apport des Graphes dans la Reconnaissance Non-Contrainte de Caractères Manuscrits Anciens". Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00267232.

Pełny tekst źródła
Streszczenie:
L'objectif des travaux réalisés au cours de cette thèse est d'adresser la problématique de la reconnaissance générique de caractères manuscrits par les méthodes structurelles à base de graphes. Les écrits traités sont non-contraints et hétérogènes dans le temps. Les méthodes classiques, dites statistiques, sont efficaces mais ne peuvent s'appliquer qu'à des écritures à vocabulaire restreint dans le cadre d'un système avec une phase d'apprentissage. Nous proposons deux systèmes de reconnaissance à base de graphes d'attributs. Le premier utilise des attributs numériques et une modélisation de la base d'apprentissage avec des graphes aléatoires. L'intégration des informations de structure change la notion de complexité et permet une coopération intéressante avec les approches statistiques. Le second système utilise des attributs hiérarchiques flous. Il permet une reconnaissance sans apprentissage basée sur des modèles qui tend vers la reconnaissance générique recherchée.
Style APA, Harvard, Vancouver, ISO itp.
41

Namane, Abderrahmane. "Degraded printed text and handwritten recognition methods : Application to automatic bank check recognition". Université Louis Pasteur (Strasbourg) (1971-2008), 2007. http://www.theses.fr/2007STR13048.

Pełny tekst źródła
Streszczenie:
La reconnaissance des caractères est une étape importante dans tout système de reconnaissances de document. Cette reconnaissance de caractère est considérée comme un problème d'affectation et de décision de caractères, et a fait l'objet de recherches dans de nombreuses disciplines. Cette thèse porte principalement sur la reconnaissance du caractère imprimé dégradé et manuscrit. De nouvelles solutions ont été apportées au domaine de l'analyse du document image (ADI). On trouve en premier lieu, le développement de deux méthodes de reconnaissance du chiffre manuscrit, notamment, la méthode basée sur l'utilisation de la transformée de Fourier-Mellin (TFM) et la carte auto-organisatrice (CAO), et l'utilisation de la combinaison parallèle basée sur les HMMs comme classificateurs de bases, avec comme extracteur de paramètres une nouvelle technique de projection. En deuxième lieu, on trouve une nouvelle méthode de reconnaissance holistique de mots manuscrits appliquée au montant légal Français. En troisième lieu, deux travaux basés sur les réseaux de neurones ont étés réalisés sur la reconnaissance du caractère imprimé dégradé et appliqués au chèque postal Algérien. Le premier travail est basé sur la combinaison séquentielle et le deuxième a fait l'objet d'une combinaison série basé sur l'introduction d'une distance relative pour la mesure de qualité du caractère dégradé. Lors de l'élaboration de ce travail, des méthodes de prétraitement ont été aussi développées, notamment, la correction de l'inclinaison du chiffre manuscrit, la détection de la zone centrale du mot manuscrit ainsi que sa pente
Character recognition is a significant stage in all document recognition systems. Character recognition is considered as an assignment problem and decision of a given character, and is an active research subject in many disciplines. This thesis is mainly related to the recognition of degraded printed and handwritten characters. New solutions were brought to the field of document image analysis (DIA). The first solution concerns the development of two recognition methods for handwritten numeral character, namely, the method based on the use of Fourier-Mellin transform (FMT) and the self-organization map (SOM), and the parallel combination of HMM-based classifiers using as parameter extraction a new projection technique. In the second solution, one finds a new holistic recognition method of handwritten words applied to French legal amount. The third solution presents two recognition methods based on neural networks for the degraded printed character applied to the Algerian postal check. The first work is based on sequential combination and the second used a serial combination based mainly on the introduction of a relative distance for the quality measurement of the degraded character. During the development of this thesis, methods of preprocessing were also developed, in particular, the handwritten numeral slant correction, the handwritten word central zone detection and its slope
Style APA, Harvard, Vancouver, ISO itp.
42

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques". Phd thesis, Rouen, 2006. http://www.theses.fr/2006ROUES056.

Pełny tekst źródła
Streszczenie:
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l’étude, la conception et la mise en oeuvre d’un système d’extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d’entités manuscrites isolées peut être considérée comme un problème en partie résolu, l’extraction d’information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en oeuvre de méthodes classiques de reconnaissance d’entités manuscrites que de méthodes issues du domaine de l’extraction d’information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l’extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l’écriture, alors que la seconde, plus proche des méthodes utilisées pour l’extraction d’information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l’une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l’extraction d’informations complexes dans des images de documents quelconques
Within the framework of the automatic processing of incoming mail documents, we present in this thesis the conception and development of a numerical field extraction system in weakly constrained handwritten documents. Although the recognition of isolated handwritten entities can be considered as a partially solved problem, the extraction of information in images of complex and free-layout documents is still a challenge. This problem requires the implementation of both handwriting recognition and information extraction methods inspired by approaches developed within the field of information extraction in electronic documents. Our contribution consists in the conception and the implementation of two different strategies: the first extends classical handwriting recognition methods, while the second is inspired from approaches used within the field of information extraction in electronic documents. The results obtained on a real handwritten mail database show that our second approach is significantly better. Finally, a complete, generic and efficient system is produced, answering one of the emergent perspectives in the field of the automatic reading of handwritten documents: the extraction of complex information in images of documents
Style APA, Harvard, Vancouver, ISO itp.
43

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques". Phd thesis, Université de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00143090.

Pełny tekst źródła
Streszczenie:
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l'étude, la conception et la mise en \oe uvre d'un système d'extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d'entités manuscrites isolées peut être considérée comme un problème en partie résolu, l'extraction d'information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en \oe uvre de méthodes classiques de reconnaissance d'entités manuscrites que de méthodes issues du domaine de l'extraction d'information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l'extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l'écriture, alors que la seconde, plus proche des méthodes utilisées pour l'extraction d'information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l'une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des images de documents quelconques.
Style APA, Harvard, Vancouver, ISO itp.
44

Koch, Guillaume. "Catégorisation automatique de documents manuscrits : Application aux courriers entrants". Rouen, 2006. http://www.theses.fr/2006ROUES033.

Pełny tekst źródła
Streszczenie:
Les travaux présentés concernent la spécification, le développement et l’évaluation d’un système de catégorisation de documents manuscrits faiblement contraints tels que des courriers entrants. Nous démontrons qu’un système développé pour la catégorisation de documents électroniques peut être adapté à la catégorisation de documents manuscrits. Afin d’extraire les seuls mots clés nécessaires à la catégorisation, nous avons mis en place un système d’extraction de mots clés dans les documents manuscrits. Ce système d’extraction est appliqué sur chaque ligne de texte et fait appel à un moteur de reconnaissance de mots manuscrits isolés afin de réaliser conjointement la segmentation de mots et leur reconnaissance. L’intégration d’un modèle de rejet dans le système permet de prendre en compte les éléments hors-lexique lors de la reconnaissance de la ligne. Nous démontrons que malgré les performances en extraction de mots clés très en-dessous de celles des OCR, les performances en catégorisation de documents manuscrits ne sont que très peu dégradées
The work described in this document deals with the design, the development and the evaluation of a system of categorization of unconstrained handwritten documents such as handwritten incoming mails. We demonstrate that a system developed for electronic document categorization can be adapted for handwritten document categorization
Style APA, Harvard, Vancouver, ISO itp.
45

Duneau, Laurent. "Etude et réalisation d'un système adaptatif pour la reconnaissance en ligne de mots manuscrits". Compiègne, 1994. http://www.theses.fr/1994COMP7665.

Pełny tekst źródła
Streszczenie:
L'utilisation du stylo comme interface homme-machine nécessite la mise au point de systèmes de reconnaissance performants. De plus, pour améliorer le confort de l'utilisateur, et donc, sa productivité, il est très souhaitable de pouvoir identifier des mots manuscrits cursifs, dans lesquels les lettres ne sont pas obligatoirement séparées les unes des autres. Nous proposons ici un système qui effectue simultanément reconnaissance et segmentation en lettres, pour un vocabulaire prédéfini de plusieurs dizaines de milliers de mots. La solution envisagée repose sur un ensemble de prototypes de lettres, ainsi que sur une recherche heuristique, dirigée par le lexique. La principale originalité de ce système est sa grande capacité d'apprentissage. Celui-ci peut en effet apprendre automatiquement l'écriture d'un utilisateur donné, directement à partir d'un échantillon de quelques dizaines à quelques centaines de mots manuscrits. Cette opération est fondée sur un module qui permet de segmenter en lettres un ensemble de mots étiquettés, sans intervention humaine. En suivant le même principe, notre système est également capable de s'adapter à une nouvelle écriture au cours de son utilisation. Cette adaptation continue permet d'obtenir des taux de reconnaissance supérieurs à 95%, pour un vocabulaire de près de 25000 mots.
Style APA, Harvard, Vancouver, ISO itp.
46

Farouz, Cherki. "Reconnaissance hors-ligne par modélisation markovienne de mots manuscrits dans un vocabulaire ouvert". Nantes, 1999. http://www.theses.fr/1999NANT2061.

Pełny tekst źródła
Streszczenie:
Nous décrivons dans ce mémoire un système de reconnaissance de mots manuscrits hors-ligne sans contrainte dans un grand vocabulaire. La réalisation d'un tel système a nécessité de répondre aux deux problèmes suivants : Le premier problème porte sur la diminution du taux de reconnaissance, observé quand il s'agit de rechercher le mot correspondant à une image dans un grand lexique. La réponse apportée à ce problème passe par une meilleure caractérisation de l'image pour mieux renseigner le module de reconnaissance. Nous avons développé dans le cadre de cette thèse une méthode d'extraction de caractéristiques, qui à partir d'une image de mot segmentée, détermine une description pour représenter le mot. Cette représentation est déduite de l'étiquetage des segments (entités résultant de la phase de segmentation) à partir d'un alphabet appelé ensemble de graphèmes
Nous decrivons dans ce memoire un systeme de reconnaissance de mots manuscrits hors-ligne sans contrainte dans un grand vocabulaire. La realisation d'un tel systeme a necessite de repondre aux deux problemes suivants: le premier probleme porte sur la diminution du taux de reconnaissance, observe quand il s'agit de rechercher le mot correspondant a une image dans un grand lexique. La reponse apportee a ce probleme passe par une meilleure caracterisation de l'image pour mieux renseigner le module de reconnaissance. Nous avons developpe dans le cadre de cette these une methode d'extraction de caracteristiques, qui a partir d'une image de mot segmentee, determine une description pour representer le mot. Cette representation est deduite de l'etiquetage des segments (entites resultant de la phase de segmentation) a partir d'un alphabet appele ensemble de graphemes. Un grapheme est une entite pouvant correspondre a un morceau de lettre, une lettre complete ou des lettres jointes. L'alphabet des graphemes est construit dans une phase precedente a partir d'un echantillon d'apprentissage. L'etiquetage des differents segments de l'image tient compte du contexte local dans lequel les segments s'inscrivent. Cette idee nous a permis de construire une description pertinente de l'image qui est fournie par la suite aux modeles de markov caches pour estimer la probabilite de vraisemblance de l'image avec chaque entree du lexique. L'application d'une telle methode a donne des taux de reconnaissance tres interessants et a montre une certaine robustesse face a l'augmentation de la taille du lexique. Le deuxieme probleme souleve quand il s'agit de realiser une reconnaissance dans un grand vocabulaire porte sur le temps d'execution qui peut devenir redhibitoire surtout s'il y a des contraintes de temps reel. En reponse a ce probleme, nous avons developpe une methode de reduction de lexique pour la reconnaissance de mots manuscrits hors-ligne. Cette methode se base sur l'estimation d'une borne superieure, a partir d'heuristiques, pour la probabilite de vraisemblance de l'image avec une entree du lexique ou plusieurs. La technique de reduction consiste a eliminer des entrees du lexique, supposes eloignees, au fur et a mesure que nous trouvons dans le dictionnaire des mots proches de l'image en entree. Les tests ont montre que le taux de reconnaissance de la methode approche celui de la methode exhaustive mais le taux moyen d'elagage (69%) reste modeste
Style APA, Harvard, Vancouver, ISO itp.
47

Joutel, Guillaume. "Analyse multirésolution des images de documents manuscrits : application à l'analyse de l'écriture". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0045/these.pdf.

Pełny tekst źródła
Streszczenie:
Les images de traits, et plus spécifiquement les images d'écritures manuscrites, ont des contenus souvent hétérogènes et nécessitent des méthodes spécifiques d'analyse pour être exploitées. Dans cette thèse, nous proposons la mise au point d'une approche de caractérisation des écritures manuscrites basée sur la transformée en ondelettes géométriques non-adaptatives que sont les Curvelets. Nous validons cette caractérisation dans différents cadres applicatifs de l'analyse d'images de documents. Les Curvelets ont été choisies pour leur propriété de bonne localisation des objets anisotropes et leur analyse directionnelle multi-échelle. Elles permettent l'extraction de deux primitives essentielles des écritures que sont l'orientation et la courbure à des niveaux d'échelles variables. Ces primitives sont rassemblées dans une matrice d'occurrences pour constituer la signature d'une écriture. Cette dernière est utilisée comme vecteur de caractéristiques dans une application de recherche d'images par le contenu. Nous proposons également une évaluation de la similarité locale entre formes plus petites, quelles qu'elles soient, où seule la primitive orientation est utilisée. Enfin, dans le cadre d'une spécialisation de notre méthode au corpus d'images fournies par le projet ANR Graphem, nous proposons la définition d'un indice de similarité, produite à partir d'échanges entre les partenaires de ce projet, qui tente de tirer partie des propriétés communes des écritures tout en essayant de prendre en compte leurs différences et leurs spécificités. Cette prise en compte, pondérable par l'utilisateur, permet une exploitation avancée des écritures du Moyen-Age
Images of strokes, especially handwriting documents images, are often composed of heterogeneous contents and require specific methods of analysis to be exploited. In this thesis, we propose the development of a characterization of handwritings based on a non-adaptive geometrical wavelet transform which is the Curvelets transform. We validate this characterization in different application frameworks of document images analysis. The Curvelets were chosen for their property of good localization of anisotropic objects and their directional multi-scale analysis. We can extract from those two essential primitives which are orientation and curvature at varying levels of scales. These primitives are gathered in a matrix of occurrences to form the signature of a handwriting. The latter is used as a features' vector in an content based image retrieval application. We also propose an evaluation of local similarity between the smaller forms, whatever they are, where the only primitive used is orientation. Finally, as part of a specialization of our method to the corpus of images provided by the ANR project Graphem, we propose the definition of a similarity index, generated from trade between partners in this project, which attempts to use common properties of handwritings while trying to address their differences and their characteristics. This consideration, weighted by the user, allows an advanced exploitation of medieval handwritings
Style APA, Harvard, Vancouver, ISO itp.
48

Almaksour, Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : application à la reconnaissance de gestes manuscrits". Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00741574.

Pełny tekst źródła
Streszczenie:
Nous présentons dans cette thèse une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. La contribution majeure de cette thèse consiste à proposer une approche incrémentale pour l'apprentissage de classifieurs basés sur les systèmes d'inférence floue de type Takagi-Sugeno d'ordre 1. Cette approche comprend, d'une part, une adaptation des paramètres linéaires associés aux conclusions des règles en utilisant la méthode des moindres carrés récursive, et, d'autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d'appartenance suivant l'évolution de la densité des données dans l'espace de classification. La méthode proposée, Evolve++, résout les problèmes d'instabilité d'apprentissage incrémental de ce type de systèmes grâce à un paradigme global d'apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des bancs d'essai connus, en mettant en évidence notamment sa capacité d'apprentissage à la volée de nouvelles classes. Dans le contexte applicatif de la reconnaissance de gestes manuscrits, ce système permet de s'adapter en continue aux styles d'écriture (personnalisation des symboles) et aux nouveaux besoins des utilisateurs (introduction à la volée des nouveaux symboles). Dans ce domaine, une autre contribution a été d'accélérer l'apprentissage de nouveaux symboles par la synthèse automatique de données artificielles. La technique de synthèse repose sur la théorie Sigma-lognormal qui propose un nouvel espace de représentation des tracés manuscrits basé sur un modèle neuromusculaire du mécanisme d'écriture. L'application de déformations sur le profil Sigma-lognormal permet d'obtenir des tracés manuscrits synthétiques qui sont réalistes et proches de la déformation humaine. L'utilisation de ces tracés synthétiques dans notre système accélère l'apprentissage et améliore de façon significative sa performance globale.
Style APA, Harvard, Vancouver, ISO itp.
49

Thépaut, André. "Contribution à l'étude des machines hybrides : application à la reconnaissance des chiffres manuscrits". Montpellier 2, 1995. http://www.theses.fr/1995MON20096.

Pełny tekst źródła
Streszczenie:
Nous developpons tout d'abord les aspects biologiques des strategies cerebrales dans le cadre de la reconnaissance des formes. Puis, nous nous inspirons de l'architecture bilaterale du cerveau pour proposer un modele de reconnaissance base sur la cooperation de deux modules specialises. Cette technique du double codage (codage analytique et codage spatial), est appliquee a la reconnaissance des chiffres manuscrits. Nous discutons differentes strategies de cooperation, puis nous montrons comment la cooperation de deux modules independants mais complementaires, permet d'ameliorer les performances du classifieur. Nous presentons ensuite une plate-forme de developpement (materielle et logicielle) pour des reseaux connexionnistes de topologies diverses. La nouvelle architecture, baptisee armenx, est composee de transputers, de reseaux logiques reconfigurables et de processeurs de traitement de signal. La flexibilite de la machine autorise l'implantation d'applications tres diverses. Enfin nous montrons comment cette machine permet d'effectuer efficacement la reconnaissance des chiffres a l'aide du modele presente precedemment
Style APA, Harvard, Vancouver, ISO itp.
50

Almousa, Almaksour Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : Application à la reconnaissance de gestes manuscrits". Rennes, INSA, 2011. http://www.theses.fr/2011ISAR0015.

Pełny tekst źródła
Streszczenie:
Nous présentons une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. Nous proposons une approche incrémental pour l’apprentissage des systèmes d’inférence floue de type Takagi-Sugeno. Cette approche comprend d’une part, une adaptation des paramètres linéaires associés aux conclusions des règles par méthode des moindres carrés récursive, et d’autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d’appartenance suivant l’évolution de la densité des données dans l’espace de classification. La méthode proposée résout les problèmes d’instabilité d’apprentissage incrémental de ce type de systèmes grâce à un paradigme global d’apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des benchmarks connus, en mettant en évidence sa capacité d’apprentissage à la volée de nouvelles classes
We present in a new method for the conception of evolving and customizable classification systems. We propose an incremental approach for the learning of classification models based on first-order Takagi-Sugeno (TS) fuzzy inference systems. This approach includes, on the one hand, the adaptation of linear consequences of the fuzzy rules using the recursive least-squares method, and, on the other hand, an incremental learning of the antecedent of these rules in order to modify the membership functions according to the evolution of data density in the input space. The proposed method resolves the instability problems in the incremental learning of TS models thanks to a global learning paradigm in which antecedent and consequents are learned in synergy, contrary to the existing approaches where they are learned separately. The performance of our system had been demonstrated on different well-known benchmarks, with a special focus on its capacity of learning new classes
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii