Dissertations / Theses on the topic 'Illustrations – Analyse et indexation des documents'

To see the other types of publications on this topic, follow the link: Illustrations – Analyse et indexation des documents.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Illustrations – Analyse et indexation des documents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fournier, Jérôme. "Indexation d'images par le contenu et recherche interactive dans les bases généralistes." Cergy-Pontoise, 2002. http://biblioweb.u-cergy.fr/theses/02CERG0157.pdf.

Full text
Abstract:
Nous nous intéressons à l'indexation et à la recherche des images par le contenu dans les bases généralistes. Nous présentons un système opérationnel nommé RETIN. Du point de vue indexation, nous proposons un traitement automatique et portons une attention particulière à la réduction de dimension et à l'augmentation de l'efficacité des signatures. Du point de vue recherche, nous utilisons le principe de la recherche-par-similarité et du bouclage de pertinence pour réduire le décalage entre l'information bas niveau extraite de l'image et la requête haut niveau de l'utilisateur. Nous proposons la mise à jour de la fonction de similarité ainsi qu'une stratégie d'exploration de la base pour la construction interactive d'une requête multiple. En outre, nous proposons une technique d'apprentissage à long-terme des similarités, basée sur les recherches passées pour le regroupement des images de la base en grandes catégories
This thesis deals with content-based image indexing and retrieval in general databases. We introduce an operational system named RETIN. From the indexing point of view, we propose an automatic processing in order to compute the image signatures. We also pay attention to dimensionality reduction and retrieval effectiveness improvement of signatures. From the retrieval point of view, we use the search-by-similarity and the relevance feedback principles in order to reduce the gap between the low-level information extracted from images and the high-level user's request. We propose a new method for the similarity function refinement and an exploration strategy for the interactive construction of a multiple request. Moreover, we introduce a long-term similarity learning technique, based on former retrieval sessions, which allows to cluster images into broad categories
APA, Harvard, Vancouver, ISO, and other styles
2

Bouteldja, Nouha. "Accélération de la recherche dans les espaces de grande dimension : Application à l'indexation d'images par contenu visuel." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0628.

Full text
Abstract:
L'objectif des travaux de recherche présentés dans cette thèse est l'accélération de la recherche dans les grandes bases de données décrites par des vecteurs de grande dimension. Différentes structures ont déjà été proposées dans la littérature afin de réduire les temps de recherche mais plusieurs d'entre elles souffrent du problème de la malédiction de la dimension. Dans une première partie de cette thèse nous avons revisité le phénomène de la malédiction de la dimension avec les index classiques afin de déterminer à partir de quelle dimension ces index deviennent inefficaces. Cette première étude a montré que les index classiques fonctionnent bien avec des dimensions modérées (< 30) avec les bases réelles. Toutefois pour des dimensions plus importantes le problème de la malédiction de la dimension persiste. D'un autre coté avec l'augmentation des volumes des données ces dernières décennies vu la facilité de leur stockage, les besoins d'accélération de la recherche sont de plus en plus importants. Ces derniers points ont motivé la proposition de HiPeR notre principale contribution. HiPeR est un modèle hiérarchique qui assure la recherche exacte, progressive et approximative avec contrôle de précision. Elle est basée sur une hiérarchie d'espaces et d'index : la recherche commence par les espaces à faibles dimensions afin de réduire les effets de la malédiction de la dimension fournissant un premier résultat. Ce dernier sera amélioré progressivement en utilisant de plus grandes dimensions. Différentes stratégies sont proposées pour parcourir HiPeR en assurant la recherche exacte ou approximative. La qualité de la réponse approximative est fixée par l'utilisateur au moment de la recherche. Afin d'assurer la qualité escomptée, la méthode suit un modèle de précision probabiliste et non paramétrique. Les expériences, menées sur trois bases réelles de 4 millions de points, montrent qu'HiPeR améliore considérablement les index classiques en termes de temps CPU et d'accès I/O. Dans la dernière partie de cette thèse nous avons étudié le cas particulier des requêtes multiples où chaque entité de la base est décrite par plusieurs vecteurs. Afin d'accélérer la recherche dans une telle configuration, différentes stratégies ont été proposées et expérimentées avec les index classiques et HiPeR
In this thesis we are interested in accelerating retrieval in large databases where entities are described with high dimensional vectors (or multidimensional points). Several index structures have been already proposed to accelerate retrieval but a large number of these structures suffer from the well known Curse of Dimensionality phenomenon (CoD). In the first part of this thesis we revisited the CoD phenomenon with classical indices in order to determine from which dimension these indices does not work; Our study showed that classical indices still perform well with moderate dimensions (< 30) when dealing with real data. However, needs for accelerating retrieval are not satisfied when dealing with high dimensional spaces or with large databases. The latter observations motivated our main contribution called HiPeR. HiPeR is based on a hierarchy of subspaces and indexes: it performs nearest neighbors search across spaces of different dimensions, by beginning with the lowest dimensions up to the highest ones, aiming at minimizing the effects of curse of dimensionality. Scanning the hierarchy can be done according to several scenarios that are presented for retrieval of exact as well as approximate neighbors. In this work, HiPeR has been implemented on the classical index structure VA-File, providing VA-Hierarchies. For the approximate scenario, the model of precision loss defined is probabilistic and non parametric (very little assumptions are made on the data distribution) and quality of answers can be selected by user at query time. HiPeR is evaluated for range queries on 3 real data-sets of image descriptors varying from 500,000 vectors to 4 millions. The experiments demonstrate that the hierarchy of HiPeR improves the best index structure by significantly. Reducing CPU time, whatever the scenario of retrieval. Its approximate version improves even more retrieval by saving I/O access significantly. In the last part of our thesis, we studied the particular case of multiple queries where each database entity is represented with several vectors. To accelerate retrieval with such queries different strategies were proposed to reduce I/O and CPU times. The proposed strategies were applied both to simple indices as well as to HiPeR
APA, Harvard, Vancouver, ISO, and other styles
3

Landré, Jérôme. "Analyse multirésolution pour la recherche et l'indexation d'images par le contenu dans les bases de données images : application à la base d'images paléontologique Trans'Tyfipal." Dijon, 2005. http://www.theses.fr/2005DIJOS043.

Full text
Abstract:
Ce travail présente une méthode de recherche d'images par navigation visuelle basée sur la construction de hiérarchies de signatures de tailles réduites croissantes, par un expert du domaine de la base d'images, prenant en compte le contexte de recherche de l'utilisateur. Les signatures sont utilisées pour construire un arbre de recherche flou grâce à l'algorithme des nuées dynamiques (dont deux améliorations sont proposées). Notre logiciel de démonstration utilise une interface web dynamique (PHP), les traitements d'images (optimisés) sont réalisés grâce aux librairies Intel IPP et OpenCV, le stockage est réalisé par une base de données MySQL, une interface de visualisation 3D (Java3D) permet de se rendre compte de la répartition des images dans la classification. Un protocole de test psycho-visuel a été réalisé. Notre méthode donne de bons résultats, tant en temps de calcul qu'en pertinence des images résultats lors de la navigation pour des bases d'images homogènes
In our work we propose a visual browsing method for content-based images retrieval consisting of the building of reduced increasing sizes signature vectors extracted from images descriptor vector by an expert of the domain of the images database. Signatures are used to build a fuzzy research tree with k-means algorithm (two improvements of this algorithm are given). Our demonstration software uses a web dynamic interface (PHP), image processing is performed by Intel OpenCV and IPP libraries, data is stored in a MySQL database, a Java3D interface allows to study visual behavior of images after classification. A testing protocol has been realized. Our method gives good results, in terms of computing time and quality of visual browsing results for homogeneous images databases
APA, Harvard, Vancouver, ISO, and other styles
4

Julien, Charbel. "Image statistical learning using mixture models." Lyon 2, 2008. http://theses.univ-lyon2.fr/documents/lyon2/2008/julien_c.

Full text
Abstract:
This thesis addresses the problem of modeling the low level visual content (Color, Texture, etc…). Modeling the low level visual content is the first step in any content based image retrieval system. In this thesis we have chosen to model low-level visual content by using a discrete distribution (signature) or a discrete mixture model (GMM) as alternatives, instead of using a multi-dimensional feature vector. Learning a model by signature or by a GMM employing user constraints was presented also. In the literature many relevant works prove the better performance of this kind of image representation instead of the classical fixed-size feature vector. A prototype of image database browsing as well as a semi-automatic image organizing tool that exploits user feedbacks was proposed. Canonical distances such as Euclidian distance, L-2 distance, etc. Can’t be used in the case of signatures. Instead, distances like “Mallows distance” and “Earth Mover’s distance EMD” based on linear optimization are to be considered in the case of signatures. We use an iterative algorithm to compute a model that represents image-sets using user constraints. This optimization problem can be considered as an expectation maximization process. For the expectation step, a soft clustering, with a partial weight, is done with every component's distribution associated with a component of the mixture model we seek to compute. The expectation step is worked out by solving a linear optimization problem. Later, using these partial weights we recompute new components and new component-weights of the centroid, i. E. The maximization step
Les travaux de la thèse ont porté essentiellement sur la modélisation du contenu visuel de bas niveau des images (Couleur, Texture, etc…). La modélisation de contenu visuel est la première étape à considérer dans tout système automatique de recherche d'image par contenu, y compris les approches d'apprentissage supervisé, non-supervisé, et semi-supervisé. Dans cette thèse nous avons choisi de modéliser le contenu visuel de bas niveau, par une signature « discret distribution » ou par un modèle du mélange « GMM » au lieu des simples modèles statistiques largement utilisés dans la littérature. En utilisant ces deux types de représentation, un prototype de clustering des bases d'images a été implémenté. Ce prototype est capable d'extraire les signatures et les GMM qui représentent les images, elles sont sauvegardées pour des traitements ultérieurs y compris le clustering des images. Dans ce type de représentation les distances classiques comme la distance Euclidienne, L-2 distance, etc. Ne seront plus applicables. Des distances qui nécessitent une optimisation linéaire peuvent être utilisées pour mesurer la distance entre signatures ou GMMs, exemple : « Mallows distance » et « Earth Mover’s distance EMD ». Calculer un vecteur moyen dans le cas où on utilise des vecteurs multidimensionnels, de longueur fixe, pour représenter les images peut être relativement facile. Par contre, dans notre cas un algorithme itératif qui nécessite de nouveau une optimisation linéaire a été proposé pour apprendre un modèle, signature ou GMM, et cela en exploitant les contraintes fixées par les utilisateurs
APA, Harvard, Vancouver, ISO, and other styles
5

Goëau, Hervé. "Structuration de collections d'images par apprentissage actif crédibiliste." Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10070.

Full text
Abstract:
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction
Image annotation is an essential task in professional archives exploitation. Archivsits must describe every image in order to make easier future retrieval tasks. The main difficulties are how to interpret the visual contents, how to bring together images whitch can be associated in same categories, and how to deal with the user's subjectivity. In this thesis, we use the principle of active learning in order to help a user who wants organize with accuracy image collections. From the visual content analysis, complementary active learning strategies are proposed to the user to help him to identify and put together images in relevant categories according to his oppinion. We choose to express this image classification problem with active learning by using the Transferable Belief Model (TBM), an elaboration on the Dempster-Shafer theory of evidence. The TBM allows the combination, the revision and the representation of the knowledge which can be extracted from the visual contents and the previously identified categories. Our method proposed in this theoritical framework gives a detailed modeling of the knowledge by representing explicitly cases of multi-labeling, while quantifying uncertainty (related to the semantic gap) and conflict induced by the analysis of the visual content in different modalities (colors, textures). A human-machine interface was developed in order to validate our approach on reference tests, personal images collections and professional photos from the National Audiovisual Institute. An evaluation was driven with professional users and showed very positive results in terms of utility, of usability and satisfaction
APA, Harvard, Vancouver, ISO, and other styles
6

Belghith, Akram. "Indexation de spectres HSQC et d’images IRMf appliquée à la détection de bio-marqueurs." Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD001/document.

Full text
Abstract:
Les techniques d'acquisition des signaux médicaux sont en constante évolution et fournissent une quantité croissante de données hétérogènes qui doivent être analysées par le médecin. Dans ce contexte, des méthodes automatiques de traitement des signaux médicaux sont régulièrement proposées pour aider l'expert dans l'analyse qualitative et quantitative en facilitant leur interprétation. Ces méthodes doivent tenir compte de la physique de l'acquisition, de l'a priori que nous avons sur ces signaux et de la quantité de données à analyser pour une interprétation plus précise et plus fiable. Dans cette thèse, l'analyse des tissus biologique par spectroscopie RMN et la recherche des activités fonctionnelles cérébrales et leurs connectivités par IRMf sont explorées pour la recherche de nouveaux bio-marqueurs. Chaque information médicale sera caractérisée par un ensemble d'objets que nous cherchons à extraire, à aligner, et à coder. Le regroupement de ces objets par la mesure de leur similitude permettra leur classification et l'identification de bio-marqueurs. C'est ce schéma global d'indexation et de recherche par le contenu d'objets pour la détection des bio-marqueurs que nous proposons. Pour cela, nous nous sommes intéressés dans cette thèse à modéliser et intégrer les connaissances a priori que nous avons sur ces signaux biologiques permettant ainsi de proposer des méthodes appropriées à chaque étape d'indexation et à chaque type de signal
The medical signal acquisition techniques are constantly evolving in recent years and providing an increasing amount of data which should be then analyzed. In this context, automatic signal processing methods are regularly proposed to assist the expert in the qualitative and quantitative analysis of these images in order to facilitate their interpretation. These methods should take into account the physics of signal acquisition, the a priori we have on the signal formation and the amount of data to analyze for a more accurate and reliable interpretation. In this thesis, we focus on the two-dimensional 2D Heteronuclear Single Quantum Coherence HSQC spectra obtained by High-Resolution Magic Angle Spinning HR-MAS NMR for biological tissue analysis and the functional Magnetic Resonance Imaging fMRI images for functional brain activities analysis. Each processed medical information will be characterized by a set of objects that we seek to extract, align, and code. The clustering of these objects by measuring their similarity will allow their classification and then the identification of biomarkers. It is this global content-based object indexing and retrieval scheme that we propose. We are interested in this thesis to properly model and integrate the a priori knowledge we have on these biological signal allowing us to propose there after appropriate methods to each indexing step and each type of signal
APA, Harvard, Vancouver, ISO, and other styles
7

Ferecatu, Marin. "Recherche d'images par retour de pertinence actif utilisant des descripteurs visuels et textuels." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0001.

Full text
Abstract:
Cette thèse explore un nombre de problèmes liés à la recherche interactive d'images dans de grandes bases multimédia, en utilisant à la fois la description de l'apparence visuelle et les éventuelles informations textuelles. Nous introduisons d'abord les signatures couleur pondérées par une mesure locale de non-uniformité des pixels, qui intègrent en même temps plusieurs caractéristiques visuelles des images (couleur, texture et forme), et nous validons leur qualité sur différentes bases vérité terrain. Ensuite, nous présentons plusieurs améliorations pour le contrôle de pertinence basé sur les machines à vecteurs de support (SVM) : premièrement, nous introduisons une nouvelle méthode d'apprentissage actif avec réduction de la redondance entre les exemples ; deuxièmement, nous proposons l'utilisations de fonctions noyau spécifiques (comme le noyau triangulaire) pour obtenir l'insensibilité de la SVM au changement d'échelle des données, tout en gardant une très bonne qualité des résultats obtenus. Pour les bases d'images qui possèdent des annotations textuelles, nous présentons une méthode qui, à partir des mots-clefs, fait appel à une ontologie externe (WordNet) afin de produire un descripteur conceptuel pour chaque image. La combinaison de notre nouveau descripteur conceptuel avec les descripteurs visuels permet d'obtenir des résultats sensiblement meilleurs dans tous les tests que nous avons faits
In this thesis we explore a number of issues related to interactive querying of image databases, using both the description of the visual appearance and keyword annotations. We start by introducing the weighted color histograms, that intimately integrate color, texture and shape, and we validate their quality on multiple ground truth databases. Then, we propose several improvements for the SVM-based relevance feedback approach: first, we put forward an improved active learning selection strategy, based on a reduction of the redundancy between the images selected at every feedback round and second, we propose the use of specific kernel functions, such as the triangular kernel, that allow to obtain insensitivity to changes in the scale of the data, while keeping performance at a very good level. Finally, for image databases having keyword annotations associated with images, we propose a new keyword-based feature vector that makes use of an external ontology (WordNet) to induce a semantic generalization of the concepts corresponding to keywords. When used in combination with the visual signatures, our new feature vector can improve significantly the quality of the returned results both in query by visual example situation and with relevance feedback
APA, Harvard, Vancouver, ISO, and other styles
8

Goëau, Hervé. "Structuration de collections d'images par apprentissage actif crédibiliste." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00410380.

Full text
Abstract:
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
APA, Harvard, Vancouver, ISO, and other styles
9

Journet, Nicholas. "Analyse d’images de documents anciens : une approche texture." La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Full text
Abstract:
Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images
APA, Harvard, Vancouver, ISO, and other styles
10

Régimbeau, Gérard. "Thematique des oeuvres plastiques contemporaines et indexation documentaire." Toulouse 2, 1996. http://www.theses.fr/1996TOU20071.

Full text
Abstract:
La recherche documentaire sur les oeuvres plastiques du 20e siecle fait souvent intervenir la notion de theme. Quelles methodes et quels moyens adopter pour y repondre ? telle est la question essentielle de la these dont la perspective n'est pas strictement museographique, mais concerne plus globalement les documents textuels et iconiques edites a propos des oeuvres qui forment les ressources des centres de documentation et des bibliotheques specialises. Une premiere partie precise la position documentologique du probleme, au croisement des sciences de l'information et de l'histoire de l'art contemporain. Une deuxieme partie est consacree a l'observation, l'analyse et l'evaluation des outils documentaires : a) des documents primaires (index des ouvrages, catalogues d'expositions et periodiques) ; b) des systemes d'indexation pratiques dans les documents secondaires (repertoires bibliographiques) ; c) des bases de donnees et banques d'images, pour verifier quels types de renseignements thematiques on peut recueillir grace a eux. Devant des resultats insuffisants, la question du theme doit etre reprise et exploree dans le champ documentaire. La troisieme partie developpe arguments theoriques, methodologiques et propositions pour une indexation des themes appliquee aux textes et aux reproductions sur les oeuvres contemporaines. Les questions particulieres du theme dans les oeuvres abstraites et "materiologiques" y sont abordees. La conclusion revient sur les necessites d'une definition de la thematique dans un cadre interdisciplinaire interessant l'iconographie, l'histoire culturelle et les sciences de l'information
Documentary searches on contemporary art works are often based on theme. This thesis primarily sets out to explore the means and methods needed to conduct searches of this type, not so much from a strictly museographical standpoint as from a perspective wich covers all textual and iconic documents published on the subject of art works, and which make up the ressources of document centres and specialised libraries. Part 1 sets out the issues in terms of documentology, which stand at the point of intersection between information sciences and contemporary art history. Part 2 describes, analyses and evaluates the search tools contained within primary documents (indexes of books, exhibition catalogues and periodicals), as well as the indexing systems used in secondary documents (bibliographies), data bases and image banks, to ascertain what sort of thematic information that can be extracted from them. Since results are often inadequate, the theme in question needs to be reexamined and explored in relation to the field of documentation. Part 3 sets out theoritical and methodological premises, and puts forward a basis for thematic indexing of texts and reproductions in the field of contemporary art. Specific issues relating to theme in abstract and "materiological" art are also addressed. The conclusion emphasises the needs to define thematics within an interdisciplinary context wich includes iconography, cultural history and information sciences
APA, Harvard, Vancouver, ISO, and other styles
11

Didier, Marie Duchemin Pierre-Yves. "Indexation, structuration et encodage des fonds iconographiques le fonds Léon Lefebvre de la Bibliothèque municipale de Lille /." [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/dcb/didier.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Bertrand, Annick. "Compréhension et catégorisation dans une activité complexe : l'indexation de documents scientifiques." Toulouse 2, 1993. http://www.theses.fr/1993TOU20042.

Full text
Abstract:
La tache d'indexation consiste a reperer dans un document les idees importantes representant soncontenu et a les transformer en termes d'indexation issus d'un vocabulaire controle. Le constat d'une variabilite dans le choix des termes affectes par plusieursindexeurs a un meme document souleve deux questions : quels sont les traitements effectues par les indexeurs pour structurer et condenser l'information contenue dans l'ouvrage et pour categoriser les idees retenues en termes d'indexation ? quels sont les facteure intervenant dans ces traitements ? une situation d'observation reproduisant les caracteristiques de la situation teelle de travail a ete construite. Vingt-cinq sujets ont indexe onze ouvrages en notant les termes representant les idees principales et les termes d'indexation retenus du langage rameau. Deux categories de variables ont ete manipulees : le contenu textuel (trois domaines et deux langues) et les caracteristiques des indexeurs (expertise dans l'indexation, pratique de rameau et familiarite avec le domaine). Les resultats revelent l'existence de trois strategies d'indexation se distinguant par, d'une part, la nature des connaissances invoquees et le type d'objectifs poursuivies et, d'autre part, la mise en oeuvre privilegiee de processus soit ascendants guides par des indices textuels, soit descendants guides par des connaissances. La difference essentielle est liee au niveau d'analyse du document : les indexeurs pratiquants rameau ont adopte le niveau d'analyse requis par ce langage, les non pratiquants ont effectue une description 'fine' et les debutants sont restes a un niveau general
Indexing consists in identifying the main ideas of a document and in converging them into indexing terms chosen among a controlled vocabulary. An important variability among indexers has been shown and thereby raises two questions : what processing are made by indexers to structure and to reduce the information contained into a document and to categorize the ideas into indexing terms ? what factors step in these processing ? a situation reproducing the characteristics of the actual work has been built up. Twenty-five subjects have indexed eleven books ; they had to write the terms presenting the main ideas and the indexing terms retained from the documenting language rameau. Two classes of variables have been manipulated : the textual content (three topics and two languages) and the operators' characteristics (expertise in indexing, practice of rameau and familiarity with the scientific domain). The results reveal three indexing strategies that can vbe distinguished, on the one hand, by the nature of knowledge involved and the objectives pursued, on the other hand, by the preferential use of either bottom-up processes driven by the knowledge. The major difference depends on the level of analysis of the document : those who pratice rameau carried the level of analysisrequired by this language, the unexperienced in the language carried out a 'specific' description and the beginner indexers have chosen a general level of analysis to access quickly to the language
APA, Harvard, Vancouver, ISO, and other styles
13

Blettery, Emile. "Structuring heritage iconographic collections : from automatic interlinking to semi-automatic visual validation." Electronic Thesis or Diss., Université Gustave Eiffel, 2024. http://www.theses.fr/2024UEFL2001.

Full text
Abstract:
Cette thèse explore des approches de structuration automatique et semi-automatique pour les collections de contenus iconographiques patrimoniaux. La structuration et l'exploitation de tels contenus pourrait s'avérer bénéfique pour de nombreuses applications, du tourisme virtuel à un accès facilité pour les chercheurs et le grand public. Cependant, l'organisation "en silo" inhérente à ces collections entrave les approches de structuration automatique et toutes les applications subséquentes.La communauté de la vision par ordinateur a proposé de nombreuses méthodes automatiques pour l'indexation (et la structuration) de collections d'images à grande échelle. Exploitant l'aspect visuel des contenus, elles fonctionnent indépendamment des structures de métadonnées qui organisent principalement les collections patrimoniales, apparaissant ainsi comme une solution potentielle au problème de liage entre les structures uniques des différentes collections. Cependant, ces méthodes sont généralement entrainées sur de grands jeux d'images récentes ne reflétant pas la diversité visuelle des contenus patrimoniaux. Cette thèse vise à évaluer et à améliorer ces méthodes automatiques pour la structuration des contenus iconographiques patrimoniaux. Pour cela, cette thèse apporte trois différentes contributions avec l'objectif commun d'assurer une certaine explicabilité des méthodes évaluées et proposées, nécessaire pour justifier de leur pertinence et faciliter leur adaptation à de nouvelles acquisitions. La première contribution est une évaluation des approches automatiques de recherche d'images basée sur le contenu, confrontées aux différents types de données du patrimoine iconographique. Cette évaluation se concentre d'abord sur les descripteurs d'images de l'étape de recherche d'images, puis sur les méthodes de ré-ordonnancement qui réorganisent ensuite les images similaires en fonction d'un autre critère. Les approches les plus pertinentes peuvent alors être sélectionnées pour la suite tandis que celles qui ne le sont pas fournissent des informations inspirant notre deuxième contribution. La deuxième contribution consiste en trois nouvelles méthodes de ré-ordonnancement exploitant des informations spatiales plus ou moins globales pour réévaluer les liens de similarité visuelle créés par l'étape de recherche d'images. La première exploite les premières images retrouvées pour créer une scène 3D approximative dans laquelle les images retrouvées sont positionnées pour évaluer leur cohérence dans la scène. La deuxième simplifie la première avec une expansion de requête géométrique, c'est-à-dire en agrégeant des informations géométriques 2D issues des images récupérées pour encoder plus largement la géométrie de la scène sans la reconstruire (ce qui est couteux en temps de calcul). Enfin, la troisième exploite des informations de position plus globales, à l'échelle du jeu d'images, pour estimer la cohérence entre la similarité visuelle entre images et leur proximité spatiale. La troisième et dernière contribution est un processus semi-automatique de validation visuelle et de correction manuelle de la structuration d'une collection. Ce cadre exploite les approches automatiques les plus adaptées et une plateforme de visualisation basée sur une représentation en graphes. Nous utilisons plusieurs indices visuels pour orienter l'intervention manuelle de l'expert sur les zones impactantes. Cette approche semi-automatique guidée présente des avantages certains, car elle résout des erreurs de structuration qui échappent aux méthodes automatiques. Ces corrections étant ensuite largement diffusées dans toute la structure, l'améliorant globalement.Nous espérons que notre travail apportera quelques perspectives sur la structuration automatique de contenus iconographiques patrimoniaux par des approches basées sur le contenu, tout en ouvrant la porte à davantage de recherches sur la structuration semi-automatique guidée de collections d'images
This thesis explores automatic and semi-automatic structuring approaches for iconographic heritage contents collections. Indeed, exploiting such contents could prove beneficial for numerous applications. From virtual tourism to increased access for both researchers and the general public, structuring the collections would increase their accessibility and their use. However, the inherent "in silo" organization of those collections, each with their unique organization system hinders automatic structuring approaches and all subsequent applications. The computer vision community has proposed numerous automatic methods for indexing (and structuring) image collections at large scale. Exploiting the visual aspect of the contents, they are not impacted by the differences in metadata structures that mainly organize heritage collections, thus appearing as a potential solution to the problem of linking together unique data structures. However, those methods are trained on large, recent datasets, that do not reflect the visual diversity of iconographic heritage contents. This thesis aims at evaluating and exploiting those automatic methods for iconographic heritage contents structuring.To this end, this thesis proposes three distinct contributions with the common goal of ensuring a certain level of interpretability for the methods that are both evaluated and proposed. This interpretability is necessary to justify their efficiency to deal with such complex data but also to understand how to adapt them to new and different content. The first contribution of this thesis is an evaluation of existing state-of-the-art automatic content-based image retrieval (CBIR) approaches when faced with the different types of data composing iconographic heritage. This evaluation focuses first on image descriptors paramount for the image retrieval step and second, on re-ranking methods that re-order similar images after a first retrieval step based on another criterion. The most relevant approaches can then be selected for further use while the non-relevant ones provide insights for our second contribution. The second contribution consists of three novel re-ranking methods exploiting a more or less global spatial information to re-evaluate the relevance of visual similarity links created by the CBIR step. The first one exploits the first retrieved images to create an approximate 3D scene of the scene in which retrieved images are positioned to evaluate their coherence in the scene. The second one simplifies the first while extending the classical geometric verification setting by performing geometric query expansion, that is aggregating 2D geometric information from retrieved images to encode more largely the scene's geometry without the costly step of 3D scene creation. Finally, the third one exploits a more global location information, at dataset-level, to estimate the coherence of the visual similarity between images with regard to their spatial proximity. The third and final contribution is a framework for semi-automatic visual validation and manual correction of a collection's structuring. This framework exploits on one side the most suited automatic approaches evaluated or proposed earlier, and on the other side a graph-based visualization platform. We exploit several visual clues to focus the expert's manual intervention on impacting areas. We show that this guided semi-automatic approach has merits in terms of performance as it solves mistakes in the structuring that automatic methods can not, these corrections being then largely diffused throughout the structure, improving it even more globally.We hope our work will provide some first insights on automatically structuring heritage iconographic content with content-based approaches but also encourage further research on guided semi-automatic structuring of image collections
APA, Harvard, Vancouver, ISO, and other styles
14

Saoudi, Aissa. "Approche spatio-temporelle pour l'indexation de documents vidéo : application à la détection de copies illégales." Paris 8, 2008. http://www.theses.fr/2008PA082944.

Full text
Abstract:
L'exploitation illégale des documents vidéo sur Internet est devenue un enjeu majeur pour l'industrie audiovisuelle en général et cinématographique en particulier. Pour lutter contre ce phénomène de piraterie, les ayants-droit ont besoin de nouveaux outils permettant d’assurer une veille sécuritaire sur leurs actifs numériques. De tels outils s'appuient sur des technologies permettant l'identification de copies vidéo illégalement partagées sur Internet. Ces technologies doivent être à la fois pertinentes et robustes aux différentes transformations que peuvent subir les copies vidéo par rapport à leurs originaux. Dans ce contexte, nous proposons un outil de recherche de vidéos basé sur une nouvelle approche de caractérisation "spatio-temporelle" du signal vidéo. L'approche consiste dans un premier temps à segmenter le signal en plusieurs plans produisant ainsi des positions temporelles que nous appelons "positions saillantes". Ces positions représentent de bons pivots pour assurer une caractérisation locale et pertinente du contenu vidéo, dûe à leur uniforme répartition le long du signal vidéo et leur forte persistance dans les différentes copies. Pour détecter les positions saillantes, nous avons développé une nouvelle approche de segmentation temporelle basée sur l'analyse des tranches spatio-temporelles des vidéos que nous appelons les "STVS". L'exploitation des informations véhiculées par ces tranches nous permet de déduire les changements de plans coïncidant avec les positions saillantes. La richesse des STVS en informations spatio-temporelles nous a encouragés à les exploiter dans la caractérisation des vidéos. En effet, pour chaque position saillante, un segment de la STVS est caractérisé en utilisant des approches issues du domaine de l'indexation d'images. La détection de copie est effectuée par la suite via une mesure de similarité portant sur les caractéristiques des différents segments STVS entre copies et orignaux
Illegal exploitation of video content on internet became a major problem for audiovisual industry in general and for movie industry in particular. To fight against this phenomenon, content owners require new tools to help them identifying illicit file sharing, precisely and without errors. Required technologies must be at the same time relevant and robust against the various transformations which can alter video content in the copied files compared to the original ones. In this context, we propose a video search tool based on a new approach of the video spatiotemporal characterization. Initially, the approach consists in segmenting the signal in several parts, corresponding to more than the shots, thus producing temporal positions which we call "salient positions". These positions represent good pivots to ensure local relevant characterization of video contents, due to their uniform temporal distribution along the video signal and their strong persistence among the various copies. To detect the salient positions, we developed a new approach of temporal segmentation based on the analysis of SpatioTemporal Video Slices (STVS). The exploitation of the information conveyed by these slices allows us to infer the shots transitions corresponding to the salient positions. The richness of STVS in spatiotemporal information encouraged us to exploit them in the direct characterization of videos. Indeed, for each salient position, a segment of STVS is extracted then characterized using images indexing approaches. The detection of copy is achieved by similarity measurement on characteristics of STVS segments between copies and originals
APA, Harvard, Vancouver, ISO, and other styles
15

Papy, Fabrice. "Hypertextualisation automatique de documents techniques." Paris 8, 1995. http://www.theses.fr/1995PA081014.

Full text
Abstract:
L'hypertextualisation automatique, processus empirique débouchant de l'hypertexte, repose sur la réutilisation de documents linéaires de nature technique, saisis à partir de logiciels de traitement de textes, afin de créer dynamiquement les noeuds et les liens réseaux hypertextes. La phase d'extraction des noeuds utilise la structure physique pour mettre en évidence les différentes entités logiques composants les documents. Les liens références (particulièrement les références croisées), dont la syntaxe est préalablement définie par l'auteur, sont extraits au moyen d'un programme d'analyse utilisant une description générique de la grammaire des références croisées. L'hypertextualisation automatique conduit à la création d'un méta-réseau hypertexte ou la mise à jour locale de documents peut remettre en cause la cohérence des noeuds et des liens. Comme les systèmes de gestion de bases de données relationnelles ont montré leur efficacité pour préserver l'intégrité des données, nous proposons une normalisation relationnelle des hyperdocuments automatiquement générés afin de gérer la mise a jour des liens références. L'accroissement du volume d'information est une autre conséquence de la création automatique de réseaux hypertextes puisqu'elle accentue davantage les problèmes de désorientation et de surcharge cognitive. Une solution consiste à coupler le processus d'hypertextualisation à un programme d'indexation automatique, ce qui permettrait d'associer à chaque noeud du méta-réseau un ensemble de termes pertinents représentatifs du contenu du noeud. Ainsi, le lecteur disposerait non seulement de mécanismes de navigation structurelle mais aussi de possibilités de recherche sémantique
Automatic hypertextualization, an empirical process leading to hypertext, uses sequential technical documents typed from word processing software, to create dynamically the nodes and links of hypertext networks. The phase of nodes extraction uses the physical structure to delect the logical entities within documents. Referential links (especially cross-references), whose the syntax is defined by author, are extracted by means of a parser which uses a generic definition of cross-references grammar. Automatic hypertextualization produces a hypertext meta-network, where documents updating may corrupt nodes and links coherence. As relational database management systems have proved their efficiency to preserve data integrity, we propose a relational normalization of hypertextualized documents in order to manage referential links updating. Increasing of the mass of information is another outcome of the automatic creation of hypertext networks because it accentuates more disorientation problems and cognitive overhead. A solution consists of joining the hypertextualization process with an automatic indexing system, which would allow to associate each node with a set of relevant terms representing node content. So, readers will have not only structural navigation mecanisms but semantic browsing capabilities
APA, Harvard, Vancouver, ISO, and other styles
16

Le, Thi-Lan. "Indexation et recherche de vidéo pour la vidéosurveillance." Nice, 2009. http://www.theses.fr/2009NICE4007.

Full text
Abstract:
L’objectif de cette thèse est de proposer une approche générale pour l’indexation et la recherche de vidéos pour la vidéosurveillance. En se basant sur l’hypothèse que les vidéos sont prétraitées par un module d’analyse vidéo, l’approche proposée comprend deux phases : la phase d’indexation et celle de recherche. Afin d’utiliser les résultats de différents modules d’analyse vidéo, un modèle de données comprenant deux concepts, objets et événements est proposé. La phase d’indexation visant à préparer des données déterminées dan ce modèle de données comprenant deux concepts, objets et événements, est proposé. La phase d’indexation visant à préparer des données déterminées dans ce modèle de données effectue trois tâches. Premièrement, deux nouvelles méthodes de détection des blobs représentatifs de la tâche représentation d’objets déterminent un ensemble de blobs associés à leurs poids pour chaque objet. Deuxièmement, la tâche extraction de descripteurs consiste à analyser des descripteurs d’apparence et aussi temporels sur les objets indexés. Finalement, la tâche indexation calcule les attributs des deux concepts et les stocke dans une base de données. La phase de recherche commence par une requête de l’utilisateur et comprend quatre tâches. Dans la tâche formulation de requêtes, afin de permettre à l’utilisateur d’exprimer ses requêtes, un nouveau langage est proposé. La requête est traitée par la tâche analyse syntaxique. Une nouvelle méthode dans la tâche mise en correspondance permet de retrouver efficacement les résultats pertinents. Deux méthodes dans la tâche retour de pertinence permettent d’interagir avec l’utilisateur afin d’améliorer les résultats de recherche. Dans le but d’évaluer la performance de l’approche proposée, nous utilisons deux bases de vidéos dont l’une provenant du projet CARETAKER et l’autre provenant du projet CAVIAR. Les vidéos du projet CARETAKER sont analysées en utilisant la plate-forme VSIP de l’équipe PULSAR alors que les vidéos du projet CAVIAR sont manuellement annotées. La méthode de détection des blobs représentatifs améliore la performance d’une méthode dans l’état de l’art. L’utilisation du langage de requêtes montre qu’il permet d’exprimer de nombreuses requêtes à différents niveaux. La méthode de mise en correspondance obtient de meilleurs résultats en comparaison avec deux méthodes de l’état de l’art. Les résultats expérimentaux montrent que l’approche proposée retrouve efficacement les objets d’intérêt et les événements complexes
The goal of this work is to propose a general approach for surveillance video indexing and retrieval. Based on the hypothesis that videos are pre-processed by an external video analysis module, this approach is composed of two phases : indexing phase and retrieval phase. In order to profit from the output of various video analysis modules, a general data model consisting of two main concepts, objects and events, is proposed. The indexing phase that aims at preparing data defined in the data model performs three tasks. Firstly, two new key blob detection methods in the object representation task choose for each detected object a set of key blobs associated with a weight. Secondly, the feature extraction task analyzes a number of visual and temporal features on detected objects. Finally, the indexing task computes attributes of the two concepts and stores them in the database. The retrieval phase starts with a user query and is composed of four tasks. In the formulation task, user expresses his query in a new rich query language. This query is then analyzed by the syntax parsing task. A new matching method in the matching task aims at retrieving effectively relevant results. Two proposed methods in the relevance feedback task allow to interact with the user in order to improve retrieved results. The key blob detection method has improved results of one method in the state of the art. The analysis of query language usage shows that many queries at different abstraction levels can be expressed. The matching method has proved its performance in comparison with two other methods in the state of the art. The complete approach has been validated on two videos databases coming from two projects : CARETAKER and CAVIAR. Videos for the CARETAKER project are analyzed by the VSIP platform of the Pulsar team while videos coming from CAVIAR project are manually annotated. Experiments have shown how the proposed approach is efficient and robust to retrieve the objects of interest and the complex events from surveillance videos
APA, Harvard, Vancouver, ISO, and other styles
17

Hamroun, Mohamed. "Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédia." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0372.

Full text
Abstract:
Suite aux derniers progrès technologiques, la quantité de données multimédias ne cesse d'augmenter. Dans ce contexte, le problème qui se pose est comment exploiter efficacement ces données ? il est nécessaire de mettre en place des outils facilitant leur accès et leur manipulation.Pour répondre à ces besoins, nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur "PMC" et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA).Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG.Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions.Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image
Due to the latest technological advances, the amount of multimedia data is constantly increasing. In this context, the problem is how to effectively use this data? it is necessary to set up tools to facilitate its access and manipulation.To achieve this goal, we first propose an indexation and retrieval model for video shots (or images) by their visual content (ISE). The innovative features of ISE are as follows: (i) definition of a new descriptor "PMC" and (ii) application of the genetic algorithm (GA) to improve the retrieval (PMGA).Then, we focus on the detection of concepts in video shots (LAMIRA approach). In the same context, we propose a semi-automatic annotation method for video shots in order to improve the quality of indexation based on the GA.Then, we provide a semantic indexation method separating the data level from a conceptual level and a more abstract, contextual level. This new system also incorporates mechanisms for expanding the request and relevance feedback. To add more fluidity to the user query, the user can perform a navigation using the three levels of abstraction. Two systems called VISEN and VINAS have been set up to validate these last positions.Finally, a SIRI Framework was proposed on the basis of a multi-level indexation combining our 3 systems: ISE, VINAS and VISEN. This Framework provides a two-dimensional representation of features (high level and low level) for each image
APA, Harvard, Vancouver, ISO, and other styles
18

Sayah, Salima. "Indexation d'images par moments : accès par le contenu aux documents visuels." Cachan, Ecole normale supérieure, 2007. http://www.theses.fr/2007DENS0005.

Full text
Abstract:
Notre objectif au cours de ce travail a été de réfléchir et mettre au point une méthode pour extraire les composantes visuelles de l'image, de les caractériser et de les retrouver après le processus d'indexation et de recherche dans les bases de données d'images. Nous commençons par mettre au point une méthode de détection de points d'intérêt invariante à l'échelle et au changement d'intensité de l'image. Ce détecteur fournit des points stables et répétables qui permettront une caractérisation locale de l'image. Les invariants radiaux des moments de Chebyshev permettent une description robuste aux transformations géométriques que peut subir l'image. Afin d'optimiser notre système de caractérisation nous avons utilisé l'espace des invariants couleur. Après l'étape d'indexation, nous procédons au regroupement de primitives visuelles en utilisant la méthode de classification PDDP et l'algorithme de recherche KNN. Pour plus de précision et de pertinence de notre système, nous avons utilisé l'algorithme d'appariement en prenant en compte des contraintes géométriques du voisinage du point pour la mise en correspondance des points d'intérêt
In our works, the goal was to investigate methods to define visual search keys, in order to characterize and use them in indexing and search process applied to big image database. We have to implement a fast and efficient partial indexing system. First we proposed a new interest point detector based on invariant scale and intensity Harris detector. By using this detector we obtained an efficient and repeatable salient points, Tbose points are characterized in the description step. Our shape descriptor is based on radial Chebyshev moment invariants, this descriptor is robust to geometric transformations. In order to make it more effective we used the color invariants. Afler indexing, the search step is very important, we first clustered the feature vectors by using the PDDP and KNN algorithms. Afler that we used the Gouet interest points matching algorithm, that has been efficient for big sets of points by using geometric constraints that are robust whatever the imag transformations are
APA, Harvard, Vancouver, ISO, and other styles
19

Oueslati, Sami. "Modélisation pour l'hypertextualisation automatique de documents techniques : utilisation des organisateurs paralinguistiques et linguistiques." Grenoble, 2010. http://www.theses.fr/2010GRENL003.

Full text
Abstract:
Cette étude a pour objectif la modélisation de l'hypertextualisation de documents techniques. Cette modélisation s'appuie sur trois éléments, à savoir le besoin d'information des experts en situation de travail, les organisateurs paralinguistiques et linguistiques contenus dans ce type de documents et les types d'objets qui le composent. Les étapes de la modélisation proposée sont : - La segmentation du contenu d'un document technique en nœuds sémantiquement cohérents et autonomes. - Le typage de ces nœuds en terme de connaissances descriptives et de connaissances opératives. - L'indexation de chaque nœud. - La génération des liens hypertextes pertinents entre eux. Pour affiner la modélisation de la génération automatique des nœuds, le typage des connaissances véhiculées par chaque nœud ainsi que leur indexation, nous avons introduit des traitements linguistiques. Le modèle utilisé est le modèle de sémantique linguistique développé par Maria-Caterina MANES GALLO et Jacques ROUAULT. La modélisation élaborée a été testée auprès de techniciens experts. Elle a été appliquée à plusieurs documents techniques pour établir si elle était généralisable
The objective of the current study is the modeling of the hyper-textualization of technical documents. Such a modeling is based on three elements, mainly knowing the information needs of experts in a work situation, both paralinguistic and linguistic organizers, included in this kind of documents, and the types of objects that compose it. The stages of the suggested modeling are the following: - The segmentation of the content of the technical document into semantically coherent and autonomous knots. - The classification or categorization of these knots in terms of descriptive knowledge and operative knowledge. - The indexation of each knot, - The generation of inter-pertinent hypertext links. To improve the modelling of the automatic generation of knots, the categorization of knowledge carried by each knot as well as its indexation, we introduced linguistic processing. The model used is a semantic and linguistic model that was developed by Maria-Caterina MANES GALLO and Jacques ROUAULT. The elaborated modeling was tested by technician experts and was applied to several technical documents to demonstrate if it could be generalized
APA, Harvard, Vancouver, ISO, and other styles
20

Ibrahim, Zein Al Abidin. "Caractérisation des structures audiovisuelles par analyse statistique des relations temporelles." Toulouse 3, 2007. http://www.theses.fr/2007TOU30069.

Full text
Abstract:
Les travaux de cette thèse concernent la caractérisation de la structure de documents audiovisuels. A partir de la détection d'événements caractéristiques du contenu du document et de sa structure, nous proposons une représentation de la structure temporelle d'un document que nous utilisons ensuite pour comparer plusieurs documents. Les méthodes existantes permettant d'identifier la structure d'un document utilisent intensivement les connaissances a priori sur le type du document et son contenu. L'optique que nous avons choisie est différente. La méthode que nous proposons se veut générique c'est-à-dire applicable à tout type de document audiovisuel et ne tenant compte d'aucune information a priori. Elle est basée sur l'analyse des relations temporelles entre les événements détectés, sur la représentation paramétrique de ces relations et sur leur nombre d'occurrence. Afin d'élargir l'analyse des relations temporelles, nous avons proposé une algèbre des relations basée sur cette représentation paramétrique. Les expérimentations menées démontrent l'intérêt de notre méthode pour aborder de nouveaux types d'analyse automatique des contenus audiovisuels. Afin de pouvoir comparer des documents entre eux tout en exploitant le cadre théorique proposé sur l'analyse des relations temporelles, nous avons défini une distance et une mesure de similarité entre documents qui prend en compte la structure temporelle des documents et de leur contenu et qui est particulièrement appréciable pour gérer des collections ainsi que nous le montrons à travers différents exemples
The aim of our work is to characterize the structure of audiovisual documents. Based on the detection of events that are characteristic of the document content or structure, we propose a representation of the temporal structure of a document, which is then used for document comparison. Existing methods by which document structures are identified usually take a priori knowledge into account. They are applied on a specific document type or on a specific document content. In our work, we have adopted another point of view and designed our method to be generic and knowledge independent so that it can be applied to any document types. Our approach is based on the analysis of the temporal relationships observed between any detected events, on the occurrence number and on a parametric representation of these relations. In order to enlarge the temporal relation analysis, we propose an algebra of relation based on this parametric representation. .
APA, Harvard, Vancouver, ISO, and other styles
21

Li, Ki-Joune. "Contributions aux systèmes d’hypermédia : Modélisation et indexation des objets spatio-temporels." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0052.

Full text
Abstract:
Dans ce mémoire, nous avons exposé deux aspects importants pour l'incorporation des données spatio-temporelles dans un système hypermédia : la modélisation et l'indexation spatiale. En ce qui concerne le premier aspect, nous avons proposé une méthode de modélisation qui facilite l'intégration des données spatio-temporelles dans un système d'hypermédia. Cette méthode a été approfondie pour les objets mobiles en utilisant la notion de trajet. Au niveau de l'indexation spatiale, nous avons vérifié qu'une méthode d'indexation spatiale respecte bien la proximité spatiale, réduit le nombre d'accès en mémoire secondaire, ce qui ralenti dramatiquement le temps d'accès. Dans cette optique, nous avons effectué une étude comparative entre les méthodes d'indexation spatiale existantes. Une nouvelle méthode d'indexation spatiale qui respecte le mieux la proximité spatiale a été proposé en utilisant la méthode des nuées dynamiques
In our works, we investigated two important aspects for the incorporation of spatio-temporal data into a hypermedia system: the modelling and the spatial indexing. As for the former aspect, we proposed a modelling method witch facilitates the integration of spatio-temporal data into a hypermedia system. Especially a modelling method for moving object was proposed, based on their trajectory. We have proved that spatial indexing method respecting well the spatial proximity of objects and queries, increases the hit-ratio. So a criteria, named the hierarchical variance was defined in order to quantify the spatial proximity of the spatial indexing method. By using the hierarchical variance, we have compared some important spatial indexing methods. And we have also proposed a new spatial indexing method which respect very well the spatial proximity by dynamic clustering method
APA, Harvard, Vancouver, ISO, and other styles
22

Poullot, Sébastien. "Scalable Content-Based Video Copy Detection for Stream Monitoring and Video Mining." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0627.

Full text
Abstract:
This thesis essentially adresses the scability of the indexong methods of vectorial databases. The applications concern the similarity-based search of video descriptors in large volumes in order to perform content-based copy detection. On one hand we want to perform an online monitoring of a video stream on a reference database, containing here 280000 hours of video, which means 17 billions of descriptors. The proposed solution is based on a new indexing and probalistic searching method based on a Zgrid, but also on a distorsion of the video descriptors and on a local density model. The goal is to perform a more selective and so faster similarity search. Here we can handle the monitoring of one video stream on the 280000 hours database in a differed real time with a single standard PC. On the other hand we want to detect the occurences of the videos in a such a large database. The problem become quadratic, here a similarity self join of the descriptor database must be performed. Here we propose a new global description of the frames based on a local descriptions to reduce complexity while conserving a good tobustness. We also propose an indexing scheme apated to this task which presents moreover an easily parrallel scheme in order to mine the previously announced volumes. Our tests have been performed on dtabases containing up to 10000 hours of video in 80 hours with a single standard PC
Le paysage vidéo a récemment été profondément bouleversé par de nombreuses innovations technologiques. Les méthodes et acteurs de la distribution et de la production vidéo ont notamment fortement évolués. Le nombre de canaux de diffusion télévisuels augmente continuellement et parallèlement Internet supporte de nombreux sites communautaires et blogs comportant de la vidéo. Les utilisateurs finaux sont devenus eux-mêmes auteurs et créateurs, le volume qu'ils génèrent concurrence largement celui produit par les professionnels. On peut aussi noter que les logiciels d'édition vidéo sont aujourd'hui grand public et que la personnalisation de contenus est simple et très en vogue. Les professionnels aussi réutilisent largement de vieux contenus pour faire du neuf. Une conséquence directe est l'augmentation croissante du nombre de copies diffusées et hébergées sur les réseaux. L'existence de ces copies soulèvent le problème de la protection des droits. Un ayant droit peut exprimer légitimement le besoin d'être rémunéré si un oeuvre lui appartenant est diffusé sur une chaîne. L'INA est chargé d'accomplir cette tâche en France et donc de surveiller les différents canaux pour noter ces rediffusions. Le challenge tient aux volumes à protéger et à surveiller. Le nombre d'heures numérisées est de l'ordre du demi million et le nombre de canaux de la centaine. Les documentalistes ne peuvent gérer une telle connaissance ni un tel afflux. Un pré travail automatique par ordinateur est obligatoire: un système de surveillance vidéo par le contenu. Celui-ci est chargé de lire les flux vidéos diffusés et de décider si dans ces flux apparaissent des vidéos issues de la base référence à protéger. La détection par le contenu signifie l'utilisation du signal vidéo pour faire cette reconnaissance. Les vidéos représentent de gros volumes de données, et l'exploitation du signal complet n'est pas envisageable. Par conséquent on résume les vidéos par des descripteurs, sorte de quantificateurs du signal. Le problème de la surveillance repose alors sur la recherche de descripteurs dans une base de descripteurs de référence. Ces bases contiennent des milliards de descripteurs qui sont des vecteurs de moyenne ou grande dimension (20 à quelques centaines). Un tel système pour être viable demande alors un système d'indexation des descripteurs pour effectuer des recherches rapides. Après cette recherche un processus prend la décision en utilisant les descripteurs issus de la recherche. Dans cette thèse nous présentons un nouveau schéma d'indexation, appelé Zgrid, pour faire la recherche rapide. Ce schéma permet de faire une recherche approximative. Nous l'avons amélioré par des analyses de distribution des données dans l'espace de description. Par ailleurs nous proposons un nouveau modèle des distortions subies par les descripteurs lors des processus de copies et un modèle de densité locale pour corriger la recherche, celle-ci est alors plus sélective et moins consommatrice de temps. L'utilisation croisée de ces différentes propositions permet de suivre en temps réel différé un flux vidéo et de le comparer à une base de référence de 280,000 heures de vidéo avec un simple PC. L'existence de nombreuses copies peut aussi présenter des avantages. La détection des différentes occurrences d'un même contenu peut permettre par exemple de mutualiser des annotations ou d'aider à la navigation dans les bases vidéos. Le problème prend alors une autre dimension avec une complexité quadratique: on doit rechercher l'ensemble des descripteurs d'une base sur cette même base, ce qu'on appelle communément une auto jointure par similarité. Pour réduire la complexité de cette tâche nous proposons ici un nouveau descripteur dit Glocal qui utilise des descripteurs locaux pour construire un descripteur global au niveau de l'image. Ce changement de niveau permet par ailleurs de réduire aussi la complexité du processus de décision finale. Nous proposons aussi un nouveau système d'indexation adapté à l'auto jointure par similarité et à ce descripteur. La réduction globale des temps de calculs permet de trouver les occurrences dans une base de 10,000 heures avec un simple PC mais aussi de trouver ces occurrences dans une petite base (moins de 100 heures) en 30 secondes. On peut ainsi envisager des applications « off-line » pour les administrateurs de site vidéos et « online » pour les utilisateurs
APA, Harvard, Vancouver, ISO, and other styles
23

Derbas, Nadia. "Contributions à la détection de concepts et d'événements dans les documents vidéos." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM035/document.

Full text
Abstract:
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes
A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns
APA, Harvard, Vancouver, ISO, and other styles
24

Joly, Alexis. "Recherche par similarité statistique dans une grande base de signatures locales pour l'identification rapide d'extraits vidéo." La Rochelle, 2005. http://www.theses.fr/2005LAROS144.

Full text
Abstract:
Le domaine de l'indexation vidéo par le contenu s'intéresse à l'ensemble des techniques utiles pour analyser et exploiter des stocks de vidéos sans passer par des descriptions textuelles extérieures aux documents dont on dispose. Plus particulièrement, les travaux de cette thèse traitent du problème de la détection de copies basée sur le contenu. Pour résoudre conjointement les problèmes de qualité et de rapidité de la détection, liés à l'augmentation de la taille du catalogue de référence, nous avons proposé une méthode complète et efficace. Celle-ci tient compte à la fois des aspects traitement de l'image, des aspects base de données et de leurs interactions. La première partie du mémoire est consacrée à la présentation du contexte particulier de la détection de copies en vidéo et aux signatures utilisées pour caractériser le contenu des vidéos. L'originalité de notre approche est qu'elle est basée sur l'utilisation conjointe de signatures locales et d'une mesure de similarité globale calculée après la recherche des signatures similaires dans la base. Cette mesure globale n'est pas un simple vote comme dans les approches classiques car elle est précédée d'une étape de recalage originale entre l'objet candidat et les objets retournés par la recherche dans la base. La deuxième partie présente le coeur théorique du travail. Il s'agit d'une nouvelle méthode d'indexation et de recherche de descripteurs numériques s'intégrant dans le cadre de la recherche par similarité approximative. Il a en effet récemment été montré qu'une faible perte contrôlée dans la qualité des résultats de la recherche pouvait permettre des accélérations importantes du temps de recherche. Le principe de la technique présentée est d'étendre ce paradigme à la recherche à -près, contrairement aux autres approches qui s'intéressent uniquement à la recherche approximative des K plus proches voisins. L'originalité est de déterminer les régions pertinentes de l'espace selon un modèle théorique des distorsions que subissent les descripteurs, par des requêtes dites statistiques. Seule une portion de l'espace donnant une probabilité forte et contrôlée de trouver la réponse cherchée est visitée. Celle-ci est déterminée par une courbe de Hilbert et la partition qu'elle induit, simplifiant ainsi fortement l'accès à la base de descripteurs. L'évaluation expérimentale de la technique a montré que celle-ci est sous-linéaire avec un comportement asymptotique linéaire (mais que l'on observe que pour des tailles de base énormes) et que les performances en qualité sont stables. Il est également montré que les requêtes statistiques apportent une accélération conséquente par rapport aux requêtes à -près exactes. La troisième partie est consacrée à l'évaluation du système dans son ensemble et à la présentation de trois applications. Les expérimentations ont tout d'abord montré que le modèle théorique, bien que simple, permet un contrôle suffisant de la probabilité de retrouver un descripteur dans la pratique. Elles ont ensuite montré que la recherche approximative des descripteurs était particulièrement rentable lorsque l'on utilise des signatures locales puisque la perte de certains descripteurs n'influencent que très peu la qualité globale de la détection tout en accélérant fortement la recherche. Il a enfin été montré que la méthode globale était quasiment invariante à de très fortes augmentations de la quantité de vidéos dans la base (jusqu'à trois ordres de grandeur). L'approche proposée a été complètement intégrée et validée dans un système applicatif réel dont l'ampleur est sans précédent (le catalogue de référence contient jusqu'à 40 000 heures de vidéo, soit 500 fois plus que la moyenne des quantités utilisées dans l'état de l'art). Cela a soulevé des questionnements relatifs à l'utilisation des résultats issus de catalogues de référence aussi volumineux et d'envisager des pistes pour en extraire des informations de nature sémantique
Content-based video indexing deals with techniques used to analyse and to exploit video databases without needs of any additional textual description. The work presented in this report is focused more precisely on content-based video copy detection, which is one of the emerging multimedia applications for which there is a need of a concerted effort from the database community and the computer vision community. To overcome the difficulties due to the use of very large databases, both in terms of robustness and speed, we propose a complete original and efficient strategy. The first part of this report presents the particular context of copy detection and the signatures used to describe the content of the videos. The originality of our method is that it is based both on local signatures and on a global similarity measure computed after the search in the signatures database. This similarity measure is not only a vote like other classical local approaches but it includes a registration step between candidate objects and objects retrieved by the search. The second part presents the main contribution of the thesis: A new indexing and retrieval technique belonging to the approximate similarity search techniques family. Recent works shows that trading quality for time can be widely profitable to speed-up descriptors similarity search. Whereas all other approximate techniques deal with K Nearest Neighbors search, the principle of our method is to extend the approximate paradigm to range queries. The main originality consists in determining relevant regions of the space according a theoritical model for the distortions undergone by the signatures. The method allows to determine the optimal region of the space with a high controlled probability to contain the good answer. This search paradigm is called statistical query. In practice, to simplify the access to signatures, the relevant regions are determined by using an Hilbert space filling curve and the space partition that induces. The experiments show that the technique is sublinear in database size with an assymptotically linear behavior (but only for huge databases) and that the quality performances are stable. Furthermore, they highlight that statistical queries provide a very high speed-up compared to classical exact range queries. The third part is focused on the global system assessment and the description of three applications. The experiments show that the simple theoretical distortion model is efficient enough to control the effective probability to retrieve a descriptor. They also point out that approximate similarity search is particularly profitable when using local signatures since the lost of some search results does not affect the global robustness of the detection. Furthermore, the detection results are almost invariant to strong database size growing (three orders of magnitude). The proposed approach was integrated in a difered real-time TV monitoring system which is able to control 40 000 hours of videos. The high quantity and variability of the results of this system open new data mining perspectives
APA, Harvard, Vancouver, ISO, and other styles
25

Ouddan, Mohammed Amine. "Indexation et recherche des documents code source basées sur une caractérisation structuro-sémantique : application à la détection de plagiats." Université de Marne-la-Vallée, 2007. http://www.theses.fr/2007MARN0340.

Full text
Abstract:
La caractérisation du contenu d’un code source est une tâche très complexe en raison de la similitude qui existe entre les projets informatiques. Les différentes techniques de plagiat qui sont appliqués sur ce type de documents rendent la tâche de détection des plagiats de plus en plus difficile. Nous proposons un système multilangages de détection de plagiats basé sur une approche de caractérisation à deux niveaux, le premier niveau se porte sur l’aspect syntaxique du code permettant une caractérisation structurelle du code, et le second niveau concerne son aspect fonctionnel permettant une caractérisation sémantique. Notre approche se base sur la notion de Grammaire à Actions concrétisée par un module permettant d’accéder au contenu structurel et sémantique du code par le biais de la grammaire du langage dont ce code est écrit. Les actions de ce module consistent à traduire un code du langage source vers un langage de caractérisation où le code est représenté par un ensemble de séquences dites caractéristiques. Dans le premier niveau de caractérisation nous parlons de séquences structurelles et dans le second niveau nous parlons de séquences génétiques. Nous appliquons par la suite les techniques d’alignement de séquences pour mesurer le taux de similarité entre deux séquences caractéristiques, qui est considéré comme une abstraction au taux de plagiat entre les codes caractérisés
Source code characterization is a very complex task due the amount of similarity between computer science assignments. The various transformations that occur within a plagiarized code make the plagiarism detection more difficult. We propose a multilanguage source code retrieval system for plagiarism detection which is based on twolevel characterization approach. The first level reflects the syntactic feature of the code allowing a structural characterization of its content, and the second level relates to its functional feature allowing a semantic characterization. Our approach is based on the concept of Grammar with Actions which consists to assign significance to the parsing process in a context of characterization, and at the same time, allowing access to the structural and semantic content of the code using the grammar of its programming language. The aim idea is to translate the source code into a set of symbols sequences called characteristic sequences. In the first level of characterization we talk about structural sequences and in the second level we talk about genetic sequences. In order to quantify the similarity between characteristic sequences, we use sequence alignment techniques where the similarity rate is considered as an abstraction of the plagiarism rate between the characterized codes
APA, Harvard, Vancouver, ISO, and other styles
26

Le, Roux Estelle. "Extraction d'information dans des textes libres guidée par une ontologie : faciliter l'indexation du rendu audiovisuel d'un événement par l'indexation conceptuelle de textes relatant cet événement." Paris 10, 2003. http://www.theses.fr/2003PA100027.

Full text
Abstract:
L'INA a besoin pour que ses archives audiovisuelles puissent être utilisées de bien connaître le contenu de ses documents. Les documentalistes doivent alors visionner ces documents et les indexer. Afin d'apporter une aide aux documentalistes, nous avons créé un système d'extraction d'information s'appliquant sur des articles de presse écrite. Nous partons de l'hypothèse q'un même événement est, à la fois, décrit dans la presse écrite et visible à la télévision. Nous avons alors conçu notre système en nous servant d'une ontologie du domaine pour créer un dictionnaire sémantique et des patrons syntaxico-sémantiques. Nous obtenons, en sortie, des index conceptuels qui pourront être utilisés par les documentalistes lors de l'indexation. Les résultats obtenus sont mitigés : la grande variabilité de la langue dans les articles entra^inent la création d'un nombre important de patrons mais la presse écrite permet d'extraire des informations pertinentes pour l'INA
INA needs so that its audio-visual files can be used to know the contents of its documents well. The documentalists must then view these documents and index them. In order to bring a help to the documentalists, we created an information extraction system while being useful to us of an ontology to create a semantic dictionary and syntaxical and semantic patterns. At the end, we obtain conceptual indices which could be used by the documentalists at the time of indexing. The results obtained are mitigated : the great variability of the language in the articles involves the creation of a significant number of patterns but the newspaper makes it possible to extract relevant information for INA
APA, Harvard, Vancouver, ISO, and other styles
27

Saad, Motaz. "Fouille de documents et d'opinions multilingue." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0003.

Full text
Abstract:
L’objectif de cette thèse est d’étudier les sentiments dans les documents comparables. Premièrement, nous avons recueillis des corpus comparables en anglais, français et arabe de Wikipédia et d’Euronews, et nous avons aligné ces corpus au niveau document. Nous avons en plus collecté des documents d’informations des agences de presse locales et étrangères dans les langues anglaise et arabe. Les documents en anglais ont été recueillis du site de la BBC, ceux en arabe du site d’Al-Jazzera. Deuxièmement, nous avons présenté une mesure de similarité cross-linguistique des documents dans le but de récupérer et aligner automatiquement les documents comparables. Ensuite, nous avons proposé une méthode d’annotation cross-linguistique en termes de sentiments, afin d’étiqueter les documents source et cible avec des sentiments. Enfin, nous avons utilisé des mesures statistiques pour comparer l’accord des sentiments entre les documents comparables source et cible. Les méthodes présentées dans cette thèse ne dépendent pas d’une paire de langue bien déterminée, elles peuvent être appliquées sur toute autre couple de langue
The aim of this thesis is to study sentiments in comparable documents. First, we collect English, French and Arabic comparable corpora from Wikipedia and Euronews, and we align each corpus at the document level. We further gather English-Arabic news documents from local and foreign news agencies. The English documents are collected from BBC website and the Arabic documents are collected from Al-jazeera website. Second, we present a cross-lingual document similarity measure to automatically retrieve and align comparable documents. Then, we propose a cross-lingual sentiment annotation method to label source and target documents with sentiments. Finally, we use statistical measures to compare the agreement of sentiments in the source and the target pair of the comparable documents. The methods presented in this thesis are language independent and they can be applied on any language pair
APA, Harvard, Vancouver, ISO, and other styles
28

Le, Lan Gaël. "Analyse en locuteurs de collections de documents multimédia." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1020/document.

Full text
Abstract:
La segmentation et regroupement en locuteurs (SRL) de collection cherche à répondre à la question « qui parle quand ? » dans une collection de documents multimédia. C’est un prérequis indispensable à l’indexation des contenus audiovisuels. La tâche de SRL consiste d’abord à segmenter chaque document en locuteurs, avant de les regrouper à l'échelle de la collection. Le but est de positionner des labels anonymes identifiant les locuteurs, y compris ceux apparaissant dans plusieurs documents, sans connaître à l'avance ni leur identité ni leur nombre. La difficulté posée par le regroupement en locuteurs à l'échelle d'une collection est le problème de la variabilité intra-locuteur/inter-document : selon les documents, un locuteur peut parler dans des environnements acoustiques variés (en studio, dans la rue...). Cette thèse propose deux méthodes pour pallier le problème. D'une part, une nouvelle méthode de compensation neuronale de variabilité est proposée, utilisant le paradigme de triplet-loss pour son apprentissage. D’autre part, un procédé itératif d'adaptation non supervisée au domaine est présenté, exploitant l'information, même imparfaite, que le système acquiert en traitant des données, pour améliorer ses performances sur le domaine acoustique cible. De plus, de nouvelles méthodes d'analyse en locuteurs des résultats de SRL sont étudiées, pour comprendre le fonctionnement réel des systèmes, au-delà du classique taux d'erreur de SRL (Diarization Error Rate ou DER). Les systèmes et méthodes sont évalués sur deux émissions télévisées d'une quarantaine d'épisodes, pour les architectures de SRL globale ou incrémentale, à l'aide de la modélisation locuteur à l'état de l'art
The task of speaker diarization and linking aims at answering the question "who speaks and when?" in a collection of multimedia recordings. It is an essential step to index audiovisual contents. The task of speaker diarization and linking firstly consists in segmenting each recording in terms of speakers, before linking them across the collection. Aim is, to identify each speaker with a unique anonymous label, even for speakers appearing in multiple recordings, without any knowledge of their identity or number. The challenge of the cross-recording linking is the modeling of the within-speaker/across-recording variability: depending on the recording, a same speaker can appear in multiple acoustic conditions (in a studio, in the street...). The thesis proposes two methods to overcome this issue. Firstly, a novel neural variability compensation method is proposed, using the triplet-loss paradigm for training. Secondly, an iterative unsupervised domain adaptation process is presented, in which the system exploits the information (even inaccurate) about the data it processes, to enhance its performances on the target acoustic domain. Moreover, novel ways of analyzing the results in terms of speaker are explored, to understand the actual performance of a diarization and linking system, beyond the well-known Diarization Error Rate (DER). Systems and methods are evaluated on two TV shows of about 40 episodes, using either a global, or longitudinal linking architecture, and state of the art speaker modeling (i-vector)
APA, Harvard, Vancouver, ISO, and other styles
29

Bernard, Sylvain. "Indexation et recherche dans de grandes bases d'empreintes digitales." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0034.

Full text
Abstract:
Notre objectif est de concevoir un système automatique de reconnaissance des empreintes digitales capable de retrouver, en un temps limité, une empreinte dans une base en contenant des millions. SNous plaçons ce problème dans le cadre plus général de l’indexation d’images sur bases spécifiques. Par conséquent, nous utiliserons un grand nombre de connaissances à priori, propre au domaine de la reconnaissance par empreintes digitales. Nous savons qu’une empreinte est caractérisée par un ensemble de points particuliers appels minuties. Les minuties sont les points de fin ou de bifurcation des lignes de crêtes qui composent l’empreinte. C’est la disposition géométrique des minuties les unes par rapport aux autres qui permet de savoir si deux empreintes sont issues du même doigt ou non. La détection automatique des minuties passe par une étape intermédiaire de segmentation d’image. Les algorithmes de segmentation existants sont souvent d’une trop grande complexité et un compromis qualité/rapidité est nécessaire. Nous proposons un banc de filtres de Gabor rapide qui évite un tel compromis. De plus, notre approche multiéchelle a l’avantage de bien éliminer le bruit tout en conservant la singularité qui caractérise les minuties. La mise en correspondance des minuties se heurte aux déformations rigides et non-rigides inhérentes à la saisie. En effet, l’utilisateur ne positionne jamais son doigt au même endroit sur le capteur et l’élasticité de la peau introduit de distorsions. L’algorithme doit de plus être robuste face au bruit et aux occultations. Nous avons mis au point une méthode basée sur une transformée de Hough généralisée et une mesure de similarité locale qui tient compte de la relation spaciale des minuties entre elles. Une compétition internationale montre l’efficacité et la stabilité de notre méthode. Afin de répondre à un flux de requête important, nous avons développé un réseau de neurones qui permet une classification des empreintes selon leur forme générale. La classification réduit rapidement et efficacement le nombre de candidats à l’opération d mise en correspondance des minuties et accélère ainsi considérablement la phase de recherche
Our aim is to develop an Automated Fingerprint identification system (AFIS) for fingerprint image retrieval in Very Large Databases. We view an AFIS as a Content based image retrieval system on specific databases. As a consequence, a large domain-specific prior knowledge is incorporated into the algorithms. Indeed, our system is based on the matching of minutiae points which are the terminaisons and bifurcations of the ridge lines that constitute a fingerprint image. The efficiency of minutiae detection depends on how well the idges and valleys are extracted. The complexity of existing segmentation algorithms is often too high and quality/speed tradeoff is necessary. In our present work, we propose a fast Gabor wavelet filter bank that avoids such a tradeoff. Moreover, our multiscale approach is original and provides noise elimination whilst preserving singularities that characterize minutiae. Minutiae matching is the ultimate step used to demonstrate whether two fingerprints originate from the same finger or not. The algorithm has to be robust to rigid and not-rigid deformations, noise and occlusions. We propose a method based on a generalized Hough transform and a similarity metric that takes the geometric relationships between minutiae into account. An international benchmark proves the efficiency and robustness of the proposed method. Since minutiae matching is time consuming, matching a fingerprint with the entire database would be computationally intensive. We matching is time consuming, matching a fingerprint with the entire database would be computationally intensive. We match the query fingerprint with a subset of the database obtained by a classification step. We have developed a neural-network based classifier that organizes fingerprints from information about their global shape. The algorithm has been extensively tested on our databases providing a fast and efficient pruning
APA, Harvard, Vancouver, ISO, and other styles
30

Law-To, Julien. "From genericity to distinctiveness of video content description : application to video copy detection." Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0025.

Full text
Abstract:
My PhD thesis presents a new approach for indexing large sets of videos by their content. The proposed concept is based on the extraction and the local description of different natures of points of interest and further on the estimation of their trajectories along the video sequence. Analyzing the low-level description obtained allows highlighting semantic labels of behaviors. Searching for copies in large video databases is a new critical issue. ViCopT is a system dedicated to video copy detection based on our video description. A complete evaluation on a large video database (1,000 hours) demonstrates the robustness and the discriminability of ViCopT and the relevance of our strategy. Comparative evaluations in European and international contexts present the high performances of our system facing other academic and industrial systems
Mes travaux de thèse portent sur l’indexation et la recherche dans de grandes bases de vidéos. Partant d’une description visuelle de l’image basée sur plusieurs natures de points d’intérêt, notre approche aboutit à une représentation de plus haut niveau, associant descripteurs visuels locaux, leurs trajectoires ainsi qu’une interprétation en termes de comportement de ces descripteurs locaux au sein de la vidéo. Cette méthode permet une description fine de la vidéo tout en réduisant la redondance temporelle qui lui est intrinsèquement liée. Une application cruciale dans la gestion de patrimoines numériques est la traçabilité du catalogue vidéo. Dans ce contexte, nous proposons ViCopT, un système de détection de copie par le contenu. Une validationde sa robustesse et de sa discriminance a été réalisée sur une base de 1000h et a montrée la pertinence de nos choix. Les hautes performances de ViCopT ont été mesurées dans des évaluations comparatives tant au niveau européen qu'international
APA, Harvard, Vancouver, ISO, and other styles
31

Nguyen, Dang Tuan. "Extraction d'information à partir de documents Web multilingues : une approche d'analyses structurelles." Caen, 2006. http://www.theses.fr/2006CAEN2023.

Full text
Abstract:
Les ressources d'information multilingues sur le Web sont devenues de plus en plus des objets d'études importantes pour différents domaines intervenant au traitement de l'information. Néanmoins, nous constatons que la structure des ressources multilingues est très peu explorée par rapport à l'abondance des méthodes de traitement automatique des langues naturelles. L'ignorance des structures multilingues pourrait être à l’origine de divers problèmes de performance tels que : i) la redondance, si le site propose simultanément des traductions en plusieurs langues, ii) les parcours bruités lors d’un passage d’une langue à une autre via les vignettes (génération de graphes, conceptuellement, non signifiant), iii) la perte de l’information par la négligence de la spécificité structurelle (même implicite) de chaque langue. Le cadre de cette thèse s’insère dans le cadre des travaux de recherche sur l'extraction semi-automatique (interactive) d'information à partir d’un grand nombre de documents électroniques (essentiellement des documents web) hétérogènes structurées ou semi-structurées. Extraire une information dans ce contexte est défini comme un processus de repérage, formalisation et de traitements des structures de données pouvant comporter d’information pertinente. Dans notre approche nous observons que la structure d’un document Web incorpore des informations qui sont indispensables pour toute démarche d’optimisation de la recherche d’information ou des fouilles de sites web. Pour expérimenter et valider notre propos nous avons développé une méthode d’analyses structurelles concrétisée par le réalisation du système Hyperling. L’objectif direct de ce dernier étant de déterminer, sans aucune connaissance linguistique préalable et explicite, les langues dominantes sur un site Web multilingues. Dans cette thèse, nous abordons l’aspect multilinguisme dans un contexte de catégorisation des sites Web multilingues. Nous apportons quelques connaissances « expérimentales » - issues des travaux de développement et d’expérimentation - portant sur la représentation de documents multilingues, la modélisation des données en une structure homogène, la qualité de la recherche d’information dans un contexte multilingues et enfin sur les notions de frontière et de centre de gravité pour départager des langues dominantes sans puiser dans des connaissances linguistiques
Multilingual Web Document (MWD) processing has become one of the major interests of research and development in the area of information retrieval. Therefore, we observed that the structure of the multilingual resources has not been enough explored in most of the research works in this area. We consider that links structure embed crucial information for both hyperdocument retrieving and mining process. Discarding the multilingual information structures could affect the processing performance and generate various problems : i)°Redundancy : if the site proposes simultaneously translations in several languages, ii)° Noisy information: by using labels to shift from language to another, iii)° Loosing information: if the process does not consider the structure specificity of each language. In this context, we wonder to remind that each Web site is considered as a hyper-document that contains a set of Web documents (pages, screen, messages) which can be explored through the links paths. Therefore, detecting the dominant languages, in a Web Site, could be done in a different ways. The framework of this experimental research thesis is structures analysis for information extraction from a great number of heterogeneous structured or semi-structured electronic documents (essentially the Web document). It covers the following aspects : Enumerating the dominants languages, Setting-up (virtual) frontiers between those languages, enabling further processing, Recognizing the dominants languages. To experiment and validate our aim we have developed Hyperling which is a formal, language independent, system dealing with Web Documents. Hyperling proposes a Multilingual Structural Analysis approach to cluster and retrieve Web Document. Hyperling’s fundamental hypothesis is based on the notion of relation-density : The Monolingual relation density: i. E. Links between Web Documents written in the same language, The Interlingual relation density: i. E. Links between Web Documents written in different languages. In a Web document representation we can encounter a high level of monolingual relation density and low level of inter-lingual relation density. Therefore, we can consider a MWD to be represented by a set of clusters. Regarding the density level of each cluster, it may represent a dominant language. This hypothesis has been the core of Hyperling and has been experimented and approved on a real multilingual web documents (IMF, UNDP, UNFPA, UNICEF, WTO)
APA, Harvard, Vancouver, ISO, and other styles
32

Ango-Obiang, Marie-France David Amos. "Proposition d'une méthodologie d'indexation d'images d'œuvres architecturales à partir de l'analyse des besoins des décideurs Propriétaire, architectes, constructeurs et administrateurs /." S. l. : Université Nancy 2, 2007. http://cyberdoc.univ-nancy2.fr/htdocs/docs_ouvert/doc289/2007NAN21013.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Saad, Motaz. "Fouille de documents et d'opinions multilingue." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0003/document.

Full text
Abstract:
L’objectif de cette thèse est d’étudier les sentiments dans les documents comparables. Premièrement, nous avons recueillis des corpus comparables en anglais, français et arabe de Wikipédia et d’Euronews, et nous avons aligné ces corpus au niveau document. Nous avons en plus collecté des documents d’informations des agences de presse locales et étrangères dans les langues anglaise et arabe. Les documents en anglais ont été recueillis du site de la BBC, ceux en arabe du site d’Al-Jazzera. Deuxièmement, nous avons présenté une mesure de similarité cross-linguistique des documents dans le but de récupérer et aligner automatiquement les documents comparables. Ensuite, nous avons proposé une méthode d’annotation cross-linguistique en termes de sentiments, afin d’étiqueter les documents source et cible avec des sentiments. Enfin, nous avons utilisé des mesures statistiques pour comparer l’accord des sentiments entre les documents comparables source et cible. Les méthodes présentées dans cette thèse ne dépendent pas d’une paire de langue bien déterminée, elles peuvent être appliquées sur toute autre couple de langue
The aim of this thesis is to study sentiments in comparable documents. First, we collect English, French and Arabic comparable corpora from Wikipedia and Euronews, and we align each corpus at the document level. We further gather English-Arabic news documents from local and foreign news agencies. The English documents are collected from BBC website and the Arabic documents are collected from Al-jazeera website. Second, we present a cross-lingual document similarity measure to automatically retrieve and align comparable documents. Then, we propose a cross-lingual sentiment annotation method to label source and target documents with sentiments. Finally, we use statistical measures to compare the agreement of sentiments in the source and the target pair of the comparable documents. The methods presented in this thesis are language independent and they can be applied on any language pair
APA, Harvard, Vancouver, ISO, and other styles
34

Lespinasse, Ide Lafargue Karine. "Acquisition sémantique en langue générale : la paradocumentation textuelle pour l'indexation des documents audiovisuels sur la politique." Paris 3, 2002. http://www.theses.fr/2002PA030040.

Full text
Abstract:
A l'INA (Institut National de l'Audiovisuel), lieu des archives télévisées françaises, nous proposons des pistes de traitements automatisés de la " paradocumentation ". La paradocumentation rassemble les documents (textuels, photographiques) qui jalonne le cycle de vie du document audiovisuel. Dans la mesure où les " péritextes " existent au format électronique, il est possible de les constituer en corpus dont le contenu est étroitement lié au document audiovisuel et qui peuvent donc enrichir la description documentaire. L'enjeu scientifique réside dans l'exploitation des résultats de traitements appliqués à une langue générale avec une approche développée pour les langages techniques (méthodes, outils). Ce choix s'explique de manière pragmatique (absence d'autres outils) mais aussi théorique : la langue générale est un défi pour les traitements automatisés. Nous avons mené plusieurs expériences d'acquisition sémantique, sur différents " péritextes " pointant sur des émissions de politique : notices documentaires, transcriptions de bande-son, articles de presse. .
In order to respond to the documentation needs of the INA (the National Broadcasting Institute), which indexes French television program archives, we propose to use "paradocumentation" in computer-aided treatments. The so-called "paradocumentation" is comprised of all of the textual or photographic documents produced in the making of the audiovisual document. As long as the "peritexts" exist in an electronic format, they can be structured in the form of corpora of which the content is closely linked to the audiovisual program and can therefore enrich its description. The scientific goal is to exploit the results obtained from the treatments in a general language with an approach historically developed for sublanguages (methods, tools). There is a pragmatic reason for this choice (no other tools are available) as well as a theoretical one : general language resists automation as showed by Zellig Harris. We have conducted several experiments on the semantic acquisition of different peritexts taken from political programs : indexing files, transcriptions from soundtracks, press articles. .
APA, Harvard, Vancouver, ISO, and other styles
35

Trichili, Hanène. "Élaboration d'une nouvelle approche de tatouage pour l'indexation des images médicales." Télécom Bretagne, 2006. http://www.theses.fr/2006TELB0006.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre d'une démarche méthodologique du développement d'un système d'information médicale orienté vers l'indexation d'images. Nous élaborons une nouvelle technique de tatouage d'image baptisée "tatouage hybride" et basée sur une double insertion dans deux espaces différents, à savoir les espaces fréquentiel et multirésolution. Une modélisation du tatouage d'image par similarité avec la transmission numérique du message est effectuée. Nous cherchons les analogies entre les domaines de tatouage et de télécommunication. Une des conséquences de cette analogie, réside dans l'introduction de l'opération de codage dans le processus d'insertion de la signature afin de maximiser davantage la robustesse de l'approche proposée. Une étude est effectuée sur le choix des pixels porteurs de la signature. Ceci amène à insérer la signature dans les zones imperceptibles à l'œil, et dans les points d'intérêts de l'image pour garantir plus de robustesse contre les transformations géométriques. Une extension de nos travaux est effectuée sur le cas des images multispectrales, pour lesquelles nous optimisons les plans de couleur et le schéma d'insertion. Le schéma de détection est aussi optimisé par introduction d'une deuxième étape au processus de détection visant la bonne identification de la signature extraite. Nous avons retenu le domaine médical comme champ d'application de l'approche proposée par élaboration d'une base d'images médicales tatouées contenant comme signature le diagnostic approprié. Le choix s'est orienté vers les images de la thrombose veineuse pour le cas des images monochromes et pour les images endoscopiques pour le cas des images couleur.
APA, Harvard, Vancouver, ISO, and other styles
36

Pham, Nguyen-Khang. "Analyse factorielle des correspondances pour l'indexation et la recherche d'information dans une grande base de données d'images." Rennes 1, 2009. http://www.theses.fr/2009REN1S067.

Full text
Abstract:
Avec le développement du numérique, le nombre d'images stockées dans les bases de données a beaucoup augmenté. L'indexation des images et la recherche d'information dans les bases d'images sont plus compliquées que dans le cas de documents textuels. Des méthodes d'indexation déjà utilisées en analyse de données textuelles sont proposées pour traiter des images. Pour transférer les résultats de l'analyse de données textuelles aux images, il est nécessaire d'utiliser de nouvelles caractéristiques: les mots visuels et on considère les images comme documents. Nous nous intéressons au problème d'indexation et de recherche d'information dans des grandes bases de données d'images à l'aide de méthodes d'analyse de données, comme l'Analyse Factorielle des Correspondances (AFC). Nous proposons d'abord une utilisation astucieuse des indicateurs de l'AFC pour accélérer la recherche après l'avoir adaptée aux images. Nous nous intéressons ensuite au problème du passage à l'échelle de l'AFC. Pour ce faire, nous proposons un algorithme d'AFC incrémentale pour traiter de grands tableaux de données et la parallélisation de cet algorithme sur processeurs graphiques (GPU). Nous développons aussi une version parallèle de notre algorithme de recherche qui utilise des indicateurs de l'AFC sur GPU. Puis, nous associons l'AFC à d'autres méthodes comme la Mesure de Dissimilarité Contextuelle ou les forêts aléatoires pour améliorer la qualité de la recherche. Enfin, nous présentons un environnement de visualisation, CAViz, pour accompagner les traitements précédents
With the development of the digital world, the number of images stored in databases has significantly increased. Image indexing and information retrieval in image databases are more complicated than in the case of textual documents. Indexing methods already used in textual data analysis are proposed to process images. To transfer the results of the textual data analysis to images, new features are required: visual words and images are considered as documents. We are interested in the problem of indexing and information retrieval in a large database of images using data analysis methods and, more specifically, using Factorial Correspondence Analysis (FCA). First, we propose to use relevant indicators of FCA to speed up the retrieval step after adapting it to images. Next, we study the large scale retrieval with FCA. To this end, we propose an incremental FCA algorithm to deal with large contingency tables, and its parallelization on Graphics Processing Units (GPUs). We also develop a parallel version of our search algorithm using relevant indicators of FCA on GPUs. After that, we combine the use of FCA with other methods such as the Contextual Dissimilarity Measure and random forests in order to improve the retrieval quality. Finally, we present a visualization environment, CAViz, which allows us to display the results
APA, Harvard, Vancouver, ISO, and other styles
37

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN23001/document.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
APA, Harvard, Vancouver, ISO, and other styles
38

Thlithi, Marwa. "Segmentation et regroupement en chanteurs : application aux enregistrements ethnomusicologiques." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30059/document.

Full text
Abstract:
Cette thèse est réalisée dans le cadre du projet ANR CONTINT DIADEMS sur l'indexation de documents ethnomusicologiques sonores. Les données que nous traitons sont fournies par les partenaires ethnomusicologues du projet et elles sont issues des archives du Musée de l'Homme de Paris. Les travaux effectués lors de cette thèse consistent à développer des méthodes permettant de faire une structuration automatique des documents musicaux et ethnomusicologiques basée sur les personnes. Cette thèse aborde le sujet encore inexploré à notre connaissance de la segmentation et du regroupement en chanteurs dans des enregistrements musicaux. Nous proposons un système complet pour ce sujet en s'inspirant des travaux réalisés en segmentation et regroupement en locuteurs. Ce système est conçu pour fonctionner aussi bien sur des enregistrements musicaux de type studio que sur des enregistrements musicaux réalisés dans des conditions terrain. Il permet, tout d'abord, de découper les zones de chant en des segments acoustiquement homogènes, i.e. en groupe de chanteur(s) afin d'avoir une segmentation en tours de chant. Ensuite, une phase de regroupement est effectuée afin de rassembler tous les segments chantés par un même groupe de chanteur(s) dans une seule classe. Notre première contribution est la définition de la notion de " tour de chant " et la proposition de règles d'annotation manuelle d'un enregistrement en des segments de tours de chant. La deuxième est la proposition d'une méthode de paramétrisation de la voix des chanteurs en implémentant une stratégie de sélection de bandes fréquentielles pertinentes basée sur la variance de celles-ci. La troisième est l'implémentation d'un algorithme de segmentation dynamique adapté à un contexte de chant en utilisant le Critère d'Information Bayésien (BIC). La quatrième est la proposition d'une méthode de Décision par Consolidation A Posteriori, nommée DCAP, pour pallier au problème de variabilité du paramètre de pénalité du BIC. En effet, comme le choix a priori d'une valeur optimale de ce paramètre n'est pas possible, nous effectuons un vote majoritaire sur plusieurs sorties de segmentations obtenues avec différentes valeurs de ce paramètre. Des gains d'environ 8% et 15% sont obtenus sur nos deux corpus avec cette méthode par rapport à une valeur standard du paramètre de pénalité. La cinquième est l'adaptation de la méthode DCAP pour la réalisation de l'étape de regroupement en chanteurs
This work was done in the context of the ANR CONTINT DIADEMS project on indexing ethno-musicological audio recordings. The data that we are studying are provided by the Musée de l'Homme, Paris, within the context of this project. The work performed in this thesis consists of developing automatic structuring methods of musical and ethno-musicological documents based on the persons. This thesis touchs on an unexplored subject in our knowledge of the segmentation and clustering in singers of musical recordings. We propose a complete system in this subject that we called singer diarization by analogy with speaker diarization system on speech context. Indeed, this system is inspired from existing studies performed in speaker diarization and is designed to work on studio music recordings as well as on recordings with a variable sound quality (done outdoors). The first step of this system is the segmentation in singer turns which consists of segmenting musical recordings into segments "acoustically homogeneous" by singer group. The second step is the clustering which consists of labelling all segments produced by the same group of singers with a unique identifier. Our first contribution involved the definition of the term " singer turns " and the proposal of rules for manual annotation in singer turns segments. The second consisted in the proposal of a feature extraction method for the characterization of singer voices by implementing a method to select the frequency coefficients, which are the most relevant, based on the variance of these coefficients. The third is the implementation of a dynamic segmentation algorithm adapted to the singing context by using the Bayesian Information Criterion (BIC). The fourth is the proposal of a method, called DCAP, to take a posteriori decisions in order to avoid the variability problem of the BIC penalty parameter. Indeed, a priori choice of an optimal value for this parameter is not possible. This led us to perform a majority voting on a several segmentations obtained with different values of this parameter. A gain of about 8% and 15% is obtained on our two corpora with this method compared to the results found with a standard value of the penalty parameter. The fifth is the adaptation of our DCAP method in order to perform singer clustering step
APA, Harvard, Vancouver, ISO, and other styles
39

Ouwayed, Nazih. "Segmentation en lignes de documents anciens : applications aux documents arabes." Electronic Thesis or Diss., Nancy 2, 2010. http://www.theses.fr/2010NAN23001.

Full text
Abstract:
L'indexation de documents numérisés manuscrits pose le problème de la segmentation en lignes qui, si elle échoue, handicape les étapes suivantes d'extraction et de reconnaissance de mots. Dans les documents arabes anciens, s'ajoute à ce problème, la présence dans les marges, d'annotations souvent composées de lignes obliques. La détection de ces lignes est nécessaire et constitue un défi important pour l'indexation de ces documents. Ainsi, la segmentation visée dans ce travail de thèse concerne l'extraction de lignes multi-orientées. Pour ce problème, la bibliographie ne présente que des techniques rudimentaires basées essentiellement sur une projection directe de l'image du document suivant une seule direction et donc non applicable à du texte multi-orienté. Devant ce manque, nous avons proposé une approche adaptative permettant de localiser d'abord les zones d'orientation différentes, puis de s'appuyer sur chaque orientation locale pour extraire les lignes. Pendant ma thèse, j'ai développé les points suivants : - Application d'un maillage automatique en utilisant le modèle de contour actif (snake). - Préparation du signal de profil de projection en supprimant tous les pixels qui ne sont pas nécessaires dans le calcul de l'orientation. Ensuite, application de toutes les distributions d'énergie de la classe de Cohen sur le profil de projection pour trouver la meilleure distribution qui donne l'orientation. - Application de quelques règles d'extension pour trouver les zones. - Extraction des lignes en se basant sur un algorithme de suivi des composantes connexes. - Séparation de lignes se chevauchant et se connectant en utilisant la morphologie des lettres terminales arabes
The indexing of handwritten scanned documents poses the problem of lines segmentation, if it fails, disabling the following steps of words extraction and recognition. In addition, the ancient Arabic documents contain annotations in the margins, often composed of lines obliquely oriented. The detection of these lines is important as the rest and is a major challenge for the indexing of these documents. Thus, the segmentation described in this thesis involves the extraction of multi-oriented lines. For this problem, the bibliography has only rudimentary techniques based essentially on the projection of the document image along one direction, which be failed in the case of multi-oriented documents. Given this lack, we have proposed an adaptive approach that first locates the different orientation zones, then based on each local orientation to extract the lines. During my thesis, i particularly invested on the following points : - Applying an automatic paving using the active contour model (snake). - Preparation the signal of the projection profile by removing all pixels that are not needed in the orientation estimation. Then, implementation of all energy distributions of Cohen's class on the projection profile to find the best distribution that gives the orientation. - Applying some extension rules to find the oriented zones. - Extraction of lines by using an connected components follow-up algorithm. - Separation of overlapped and touched lines using the morphology of Arabic terminal letters
APA, Harvard, Vancouver, ISO, and other styles
40

Berrut, Catherine. "Une méthode d'indexation fondée sur l'analyse sémantique de documents spécialisés : le prototype RIME et son application à un corpus médical." Phd thesis, Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00330027.

Full text
Abstract:
Étude et réalisation de l'indexation du système de recherche d'informations rime de façon à permettre une compréhension trè fine de documents spécialisés. Ont été examinées la construction d'un modèle de représentation des connaissances des documents traites, l'analyse des phénomènes linguistiques apparaissant dans ces documents. La mise en œuvre de trois processus linguistiques (morphologie, syntaxe, sémantique) et l'élaboration d'un processus de coopération permettant l'enchainement et l'indépendance de ces trois processus linguistiques. L'architecture du systeme est présentée en détail ainsi que les expérimentations faites sur un corpus médical
APA, Harvard, Vancouver, ISO, and other styles
41

Peña, Saldarriaga Sebastián. "Approches textuelles pour la catégorisation et la recherche de documents manuscrits en-ligne." Phd thesis, Université de Nantes, 2010. http://tel.archives-ouvertes.fr/tel-00483684.

Full text
Abstract:
L'évolution technologique des dispositifs électroniques de capture de l'écriture manuscrite se traduit par l'apparition d'une grande quantité de documents manuscrits en-ligne. Cela pose la question de l'accès à l'information contenue dans ces données. Ce travail s'intéresse à l'accès à l'information textuelle contenue dans des documents qui se présentent sous la forme d'une séquence temporelle de points (x,y). Deux tâches principales ont été étudiées : la première concerne le développement d'un système de catégorisation de documents, tandis que la seconde s'intéresse à la recherche d'information dans des bases documentaires manuscrites. En amont, une première étape importante a consisté à collecter un corpus manuscrit de référence pour la validation expérimentale de cette étude. L'utilisation d'un système de reconnaissance de l'écriture étant l'élément transversal des approches proposées, une partie de notre travail a consisté à analyser le comportement de ces approches face aux erreurs de reconnaissance. La catégorisation est effectuée en enchaînant un système de reconnaissance à un système de catégorisation basé sur des méthodes d'apprentissage statistique. Pour la recherche d'information, deux approches ont été proposées. La première tire parti de la diversité des résultats restitués par des algorithmes de recherche différents, l'idée étant que la combinaison des résultats peut pallier leurs faiblesses respectives. La seconde approche exploite les relations de proximité thématique entre les documents. Si deux documents proches ont tendance à répondre au même besoin d'information, alors ces mêmes documents doivent avoir des scores de pertinence proches.
APA, Harvard, Vancouver, ISO, and other styles
42

Bouzayani, Abdessalem. "Extension automatique de l'annotation d'images pour la recherche et la classification." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0045.

Full text
Abstract:
Cette thèse traite le problème d’extension d’annotation d’images. En effet, la croissance rapide des archives de contenus visuels disponibles a engendré un besoin en techniques d’indexation et de recherche d’information multimédia. L’annotation d’images permet l’indexation et la recherche dans des grandes collections d’images d’une façon facile et rapide. À partir de bases d’images partiellement annotées manuellement, nous souhaitons compléter les annotations de ces bases, grâce à l’annotation automatique, pour pouvoir rendre plus efficaces les méthodes de recherche et/ou classification d’images. Pour l’extension automatique d’annotation d’images, nous avons utilisé les modèles graphiques probabilistes. Le modèle proposé est un mélange de distributions multinomiales et de mélanges de Gaussiennes où nous avons combiné des caractéristiques visuelles et textuelles. Pour réduire le coût de l’annotation manuelle et améliorer la qualité de l’annotation obtenue, nous avons intégré des retours utilisateur dans notre modèle. Les retours utilisateur ont été effectués en utilisant l’apprentissage dans l’apprentissage, l’apprentissage incrémental et l’apprentissage actif. Pour combler le problème du fossé sémantique et enrichir l’annotation d’images, nous avons utilisé une hiérarchie sémantique en modélisant de nombreuses relations sémantiques entre les mots-clés d’annotation. Nous avons donc présenté une méthode semi-automatique pour construire une hiérarchie sémantique à partie d’un ensemble de mots-clés. Après la construction de la hiérarchie, nous l’avons intégré dans notre modèle d’annotation d’images. Le modèle obtenu avec la hiérarchie est un mélange de distributions de Bernoulli et de mélanges de Gaussiennes
This thesis deals the problem of image annotation extension. Indeed, the fast growth of available visual contents has led a need for indexing and searching of multimedia information methods. Image annotation allows indexing and searching in a large collection of images in an easy and fast way. We wish, from partially manually annotated images databases, complete automatically the annotation of these sets, in order to make methods of research and / or classification of images more efficient. For automatic image annotation extension, we use probabilistic graphical models. The proposed model is based on a mixture of multinomial distributions and mixtures of Gaussian where we have combined visual and textual characteristics. To reduce the cost of manual annotation and improve the quality of the annotation obtained, we have incorporated user feedback into our model. User feedback was done using learning in learning, incremental learning and active learning. To reduce the semantic gap problem and to enrich the image annotation, we use a semantic hierarchy by modeling many semantic relationships between keywords. We present a semi-automatic method to build a semantic hierarchy from a set of keywords. After building the hierarchy, we integrate it into our image annotation model. The model obtained with this hierarchy is a mixture of Bernoulli distributions and Gaussian mixtures
APA, Harvard, Vancouver, ISO, and other styles
43

Pham, The Anh. "Détection robuste de jonctions et points d'intérêt dans les images et indexation rapide de caractéristiques dans un espace de grande dimension." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4023/document.

Full text
Abstract:
Les caractéristiques locales sont essentielles dans de nombreux domaines de l’analyse d’images comme la détection et la reconnaissance d’objets, la recherche d’images, etc. Ces dernières années, plusieurs détecteurs dits locaux ont été proposés pour extraire de telles caractéristiques. Ces détecteurs locaux fonctionnent généralement bien pour certaines applications, mais pas pour toutes. Prenons, par exemple, une application de recherche dans une large base d’images. Dans ce cas, un détecteur à base de caractéristiques binaires pourrait être préféré à un autre exploitant des valeurs réelles. En effet, la précision des résultats de recherche pourrait être moins bonne tout en restant raisonnable, mais probablement avec un temps de réponse beaucoup plus court. En général, les détecteurs locaux sont utilisés en combinaison avec une méthode d’indexation. En effet, une méthode d’indexation devient nécessaire dans le cas où les ensembles de points traités sont composés de milliards de points, où chaque point est représenté par un vecteur de caractéristiques de grande dimension
Local features are of central importance to deal with many different problems in image analysis and understanding including image registration, object detection and recognition, image retrieval, etc. Over the years, many local detectors have been presented to detect such features. Such a local detector usually works well for some particular applications but not all. Taking an application of image retrieval in large database as an example, an efficient method for detecting binary features should be preferred to other real-valued feature detection methods. The reason is easily seen: it is expected to have a reasonable precision of retrieval results but the time response must be as fast as possible. Generally, local features are used in combination with an indexing scheme. This is highly needed for the case where the dataset is composed of billions of data points, each of which is in a high-dimensional feature vector space
APA, Harvard, Vancouver, ISO, and other styles
44

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Full text
Abstract:
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
APA, Harvard, Vancouver, ISO, and other styles
45

Fiorini, Nicolas. "Semantic similarities at the core of generic indexing and clustering approaches." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS178/document.

Full text
Abstract:
Pour exploiter efficacement une masse toujours croissante de documents électroniques, une branche de l'Intelligence Artificielle s'est focalisée sur la création et l'utilisation de systèmes à base de connaissance. Ces approches ont prouvé leur efficacité, notamment en recherche d'information. Cependant elles imposent une indexation sémantique des ressources exploitées, i.e. que soit associé à chaque ressource un ensemble de termes qui caractérise son contenu. Pour s'affranchir de toute ambiguïté liée au langage naturel, ces termes peuvent être remplacés par des concepts issus d'une ontologie de domaine, on parle alors d'indexation conceptuelle.Le plus souvent cette indexation est réalisée en procédant à l'extraction des concepts du contenu même des documents. On note, dans ce cas, une forte dépendance des techniques associées à ce traitement au type de document et à l'utilisation d'algorithmes dédiés. Pourtant une des forces des approches conceptuelles réside dans leur généricité. En effet, par l'exploitation d'indexation sémantique, ces approches permettent de traiter de la même manière un ensemble d'images, de gènes, de textes ou de personnes, pour peu que ceux-ci aient été correctement indexés. Cette thèse explore ce paradigme de généricité en proposant des systèmes génériques et en les comparant aux approches existantes qui font référence. L'idée est de se reposer sur les annotations sémantiques et d'utiliser des mesures de similarité sémantique afin de créer des approches performantes. De telles approches génériques peuvent par la suite être enrichies par des modules plus spécifiques afin d'améliorer le résultat final. Deux axes de recherche sont suivis dans cette thèse. Le premier et le plus riche est celui de l'indexation sémantique. L'approche proposée exploite la définition et l'utilisation de documents proches en contenu pour annoter un document cible. Grâce à l'utilisation de similarités sémantiques entre les annotations des documents proches et à l'utilisation d'une heuristique, notre approche, USI (User-oriented Semantic Indexer), permet d'annoter des documents plus rapidement que les méthodes existantes en fournissant une qualité comparable. Ce processus a ensuite été étendu à une autre tâche, la classification. Le tri est une opération indispensable à laquelle l'Homme s'est attaché depuis l'Antiquité, qui est aujourd'hui de plus en plus automatisée. Nous proposons une approche de classification hiérarchique qui se base sur les annotations sémantiques des documents à classifier. Là encore, la méthode est indépendante des types de documents puisque l'approche repose uniquement sur leur annotations. Un autre avantage de cette approche est le fait que lorsque des documents sont rassemblés, le groupe qu'il forme est automatiquement annoté (suivant notre algorithme d'indexation). Par conséquent, le résultat fourni est une hiérarchie de classes contenant des documents, chaque classe étant annotée. Cela évite l'annotation manuelle fastidieuse des classes par l'exploration des documents qu'elle contient comme c'est souvent le cas.L'ensemble de nos travaux a montré que l'utilisation des ontologies permettait d'abstraire plusieurs processus et ainsi de réaliser des approches génériques. Cette généricité n'empêche en aucun cas d'être couplée à des approches plus spécifiques, mais constitue en soi une simplicité de mise en place dès lors que l'on dispose de documents annotés sémantiquement
In order to improve the exploitation of even growing number of electronic documents, Artificial Intelligence has dedicated a lot of effort to the creation and use of systems grounded on knowledge bases. In particular in the information retrieval field, such semantic approaches have proved their efficiency.Therefore, indexing documents is a necessary task. It consists of associating them with sets of terms that describe their content. These terms can be keywords but also concepts from an ontology, in which case the annotation is said to be semantic and benefit from the inherent properties of ontologies which are the absence of ambiguities.Most approaches designed to annotate documents have to parse them and extract concepts from this parsing. This underlines the dependance of such approaches to the type of documents, since parsing requires dedicated algorithms.On the other hand, approaches that solely rely on semantic annotations can ignore the document type, enabling the creation of generic processes. This thesis capitalizes on genericity to build novel systems and compare them to state-of-the-art approaches. To this end, we rely on semantic annotations coupled with semantic similarity measures. Of course, such generic approaches can then be enriched with type-specific ones, which would further increase the quality of the results.First of all, this work explores the relevance of this paradigm for indexing documents. The idea is to rely on already annotated close documents to annotate a target document. We define a heuristic algorithm for this purpose that uses the semantic annotations of these close documents and semantic similarities to provide a generic indexing method. This results in USI (User-oriented Semantic Indexer) that we show to perform as well as best current systems while being faster.Second of all, this idea is extended to another task, clustering. Clustering is a very common and ancient process that is very useful for finding documents or understanding a set of documents. We propose a hierarchical clustering algorithm that reuses the same components of classical methods to provide a novel one applicable to any kind of documents. Another benefit of this approach is that when documents are grouped together, the group can be annotated by using our indexing algorithm. Therefore, the result is not only a hierarchy of clusters containing documents as clusters are actually described by concepts as well. This helps a lot to better understand the results of the clustering.This thesis shows that apart from enhancing classical approaches, building conceptual approaches allows us to abstract them and provide a generic framework. Yet, while bringing easy-to-set-up methods – as long as documents are semantically annotated –, genericity does not prevent us from mixing these methods with type-specific ones, in other words creating hybrid methods
APA, Harvard, Vancouver, ISO, and other styles
46

Bernard, Michel. "Élaboration d'un thésaurus pour l'indexation thématique d'oeuvres littéraires." Paris 3, 1992. http://www.theses.fr/1992PA030129.

Full text
Abstract:
Cette thèse retrace les étapes de l'élaboration d'un thesaurus de termes littéraires destine a indexer les œuvres de la littérature de langue française répertoriées dans la banque de données d'histoire littéraire, développée a l'université de paris iii-la Sorbonne nouvelle. Il s'agit de rendre compte du contenu des textes littéraires du domaine francophone, en utilisant la terminologie en usage. Un thesaurus, conforme a la norme documentaire, permet de structurer le vocabulaire en descripteurs et non descripteurs. Une première version a été utilisée pour faire indexer 1500 œuvres par des étudiants. Les résultats de cette première phase ont permis d'améliorer le thesaurus, la liste des thèmes et sa structure. Il se présente actuellement sous la forme d'un réseau sémantique non hiérarchisé. Par ailleurs, des essais d'indexation automatique ont permis d'établir qu'une indexation thématique assistée par ordinateur s'appuyant sur des résumés était envisageable. Des études statistiques préfigurent ce que pourraient être les études littéraires permises par une base de données thématiques : analyse des corrélations de la thématique avec les mouvements, les époques, les genres. .
This thesis gives an account of the building up of a thesaurus of literary terms for the indexing of the french literary works listed in the literature data bank, worked out at the Paris III-Sorbonne nouvelle university. The aim has been to give a fair representation of the contents of literary texts in the french language, using the received terminology. The thesaurus, in accordance with the norms of information retrieval, distributes the vocabulary into allowed and not allowed terms. A first version was used for the indexation, by students, of 1500 works. The results of that first phase were then used in their turn for the improvement of the thesaurus, the themes’ list and its structure. It now has the form of a non hierarchical semantic network. Besides, a number of tests in automatic indexation have shown that computer-aided thematic indexation, based on abstracts, is worth considering. Statistical studies prefigure the kind of literary studies that a thematic data base would allow. Such studies would bear on the correlations between themes and movements, epochs, genres, etc. .
APA, Harvard, Vancouver, ISO, and other styles
47

Tarafdar, Arundhati. "Wordspotting from multilingual and stylistic documents." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4022/document.

Full text
Abstract:
Les outils et méthodes d’analyse d’images de documents (DIA) donnent aujourd’hui la possibilité de faire des recherches par mots-clés dans des bases d’images de documents alors même qu’aucune transcription n’est disponible. Dans ce contexte, beaucoup de travaux ont déjà été réalisés sur les OCR ainsi que sur des systèmes de repérage de mots (spotting) dédiés à des documents textuels avec une mise en page simple. En revanche, très peu d’approches ont été étudiées pour faire de la recherche dans des documents contenant du texte multi-orienté et multi-échelle, comme dans les documents graphiques. Par exemple, les images de cartes géographiques peuvent contenir des symboles, des graphiques et du texte ayant des orientations et des tailles différentes. Dans ces documents, les caractères peuvent aussi être connectés entre eux ou bien à des éléments graphiques. Par conséquent, le repérage de mots dans ces documents se révèle être une tâche difficile. Dans cette thèse nous proposons un ensemble d’outils et méthodes dédiés au repérage de mots écrits en caractères bengali ou anglais (script Roman) dans des images de documents géographiques. L’approche proposée repose sur plusieurs originalités
Word spotting in graphical documents is a very challenging task. To address such scenarios this thesis deals with developing a word spotting system dedicated to geographical documents with Bangla and English (Roman) scripts. In the proposed system, at first, text-graphics layers are separated using filtering, clustering and self-reinforcement through classifier. Additionally, instead of using binary decision we have used probabilistic measurement to represent the text components. Subsequently, in the text layer, character segmentation approach is applied using water-reservoir based method to extract individual character from the document. Then recognition of these isolated characters is done using rotation invariant feature, coupled with SVM classifier. Well recognized characters are then grouped based on their sizes. Initial spotting is started to find a query word among those groups of characters. In case if the system could spot a word partially due to any noise, SIFT is applied to identify missing portion of that partial spotting. Experimental results on Roman and Bangla scripts document images show that the method is feasible to spot a location in text labeled graphical documents. Experiments are done on an annotated dataset which was developed for this work. We have made this annotated dataset available publicly for other researchers
APA, Harvard, Vancouver, ISO, and other styles
48

Loiseau, Mathieu. "Elaboration d'un modèle pour une base de textes indexée pédagogiquement pour l'enseignement des langues." Grenoble 3, 2009. https://tel.archives-ouvertes.fr/tel-00440460v3.

Full text
Abstract:
Cette thèse traite la notion d'indexation pédagogique et l'aborde sous l'angle de la recherche et du choix de textes pour l'enseignement des langues. Ce problème est replacé dans le champ disciplinaire de l'Apprentissage des Langues Assisté par Ordinateur (ALAO) et des apports potentiels du Traitement Automatique des Langues (TAL) à cette discipline, avant d'être confronté à des éléments provenant plus directement de la didactique des langues, pour proposer une approche empirique. Celle-ci est ensuite justifiée par l'incapacité des standards de description de ressources pédagogiques actuels à modéliser des ressources brutes de manière cohérente, en particulier des textes pour l'enseignement des langues. La thèse s'articule ensuite autour de deux questionnaires visant à connaitre les pratiques déclarées des enseignants quant à la recherche et au choix de textes dans le cadre de la tâche de planification des cours. Le premier questionnaire permet la formalisation de la notion de contexte pédagogique, qui est ultérieurement appréhendée à travers certaines de ses composantes grâce au second questionnaire. Enfin, ces premières ébauches de formalisation servent de fondement à la définition d'un modèle dont l'objectif est de rendre compte de la contextualité des propriétés dites pédagogiques quand elles sont appliquées à des ressources brutes. Des pistes d'implantation du modèle sont finalement proposées dans le cadre de la description d'un système informatique
This PhD thesis deals with the notion of pedagogical indexation and tackles it from the point of view of searching for and selecting texts for language teaching. This particular problem is set in the field of Computer Assisted Language Learning (CALL) and of the potential contribution of Natural Language Processing (NLP) to this discipline, before being considered within the scope of elements more directly relevant to language didactics, in order to propose an empirical approach. The latter is then justified by the inadequacy of current description standards for pedagogical resources where modeling of raw objects in a consistent fashion is concerned. This is particularly true for texts in the context of language learning. The thesis subsequently revolves around two questionnaires the aim of which is to provide insight into language teachers' declared practices regarding searching for and selecting texts in the context of class planning. The first questionnaire provides data to formalize the notion of pedagogical context, which is later considered through some of its components thanks to the second questionnaire. Finally, these first formalization drafts provide foundations for the definition of a model aiming at taking into account the contextuality of the properties said to be pedagogical, which is inherent to raw resources. Finally, possible leads for implementing this model are suggested through the description of a computerized system
APA, Harvard, Vancouver, ISO, and other styles
49

Catteau, Olivier. "Le cycle de vie de l'objet pédagogique et de ses métadonnées." Phd thesis, Toulouse 3, 2008. http://tel.archives-ouvertes.fr/tel-00344701.

Full text
Abstract:
Pour permettre à de multiples acteurs de concevoir, réaliser, partager et améliorer un objet pédagogique (OP) spécifique en utilisant un vivier de connaissances qui stocke et indexe ses évolutions successives, une représentation des différentes étapes suivies par un OP et ses métadonnées au cours de son cycle de vie doit être établie. Différentes initiatives internationales traitant de ce problème sont étudiées et permettent de relever des différences significatives dans la terminologie utilisée et le séquencement des étapes. Nous en déduisons une représentation générique qui peut être appliquée dans n'importe quelle situation. L'étude des standards de la formation en ligne qui traitent de la description des OP permettent de suggérer des éléments de métadonnées et des vocabulaires complémentaires pour une prise en compte de notre représentation générique. Des mécanismes de propagation, d'extraction et de génération de métadonnées sont mis en place pour faciliter l'indexation. Plusieurs services sont proposés pour suivre le cycle de vie :
- une représentation des relations qui utilise des techniques de visualisation de l'information pour rechercher des OP et fournir aux utilisateurs une vue générale de la progression de la production ;
- un service de gestion des commentaires qui offre aux enseignants et aux apprenants l'opportunité d'exploiter, d'exprimer et de partager des évaluations et des suggestions d'utilisation d'OP dans le système adéquat au moment où elles sont pertinentes ;
- un service de gestion des évolutions qui sensibilise les enseignants et les responsables de cours aux divergences qui apparaissent entre les OP importés dans les plates-formes pédagogiques et leurs évolutions et dépendances qui sont stockées dans des viviers hétérogènes.
Cette approche, basée sur des objets pédagogiques de forte granularité, a été expérimentée au sein du campus numérique International E-Mi@ge.
APA, Harvard, Vancouver, ISO, and other styles
50

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Full text
Abstract:
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography