Littérature scientifique sur le sujet « Illustrations – Analyse et indexation des documents »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Illustrations – Analyse et indexation des documents ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Illustrations – Analyse et indexation des documents"

1

Chebil, W., L. F. Soualmia, B. Dahamna et S. J. Darmoni. « Indexation automatique de documents en santé : évaluation et analyse de sources d’erreurs ». IRBM 33, no 5-6 (décembre 2012) : 316–29. http://dx.doi.org/10.1016/j.irbm.2012.10.002.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ménard, Elaine. « Analyse et représentation documentaires : introduction à l ’indexation, à la classification et à la condensation des documents by Michèle Hudon ». Canadian Journal of Information and Library Science 37, no 4 (2013) : R4—R6. http://dx.doi.org/10.1353/ils.2013.0021.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Porto López, Pablo. « Dibujar la realidad ». Sur le journalisme, About journalism, Sobre jornalismo 12, no 2 (22 décembre 2023) : 38–55. http://dx.doi.org/10.25200/slj.v12.n2.2023.579.

Texte intégral
Résumé :
ES. El presente artículo analiza, desde una perspectiva semiótica, las posibilidades y limitaciones del cómic como lenguaje empleado para documentar hechos efectivamente acaecidos. Dado que su carácter referencial no puede edificarse sobre propiedades inherentes a un dispositivo técnico despojado de la indicialidad de los registros fotográficos y fonográficos, el cómic documental recurre a una serie de mecanismos auxiliares tendientes a conferir legitimidad a la instancia de enunciación como productora de un discurso veraz. Este trabajo muestra, a partir de un recorrido por obras destacadas del campo, que la elección de estos recursos viene determinada, en cada caso, por el (sub)género en el que el texto se inscribe, que puede ser más cercano al reportaje periodístico o más afín a los géneros de la narrativa clásica. Los mecanismos empleados, sin embargo, no autorizan a soslayar el problema que se deriva de que la representación de los hechos tiene lugar a través de ilustraciones que se encuentran por completo bajo el control del autor-dibujante, lo que acaba por ofrecer una representación de la realidad que se halla interpretada en el mismo nivel del componente visual, con los evidentes ‘riesgos’ que de ello se derivan. Se concluye que el carácter opaco o no naturalista del cómic, en tanto que texto compuesto por secuencias de imágenes fijas hechas a mano, tiene, por lo menos, el mérito de recordar al lector que se encuentra siempre ante un discurso y no ante las cosas mismas. Asimismo, la combinación de mecanismos de control –multiplicidad de testigos y de documentos, consultas con expertos, etc.– y de potentes recursos expresivos tomados del cine (documental y de ficción) así como del campo periodístico, hacen del cómic un medio dúctil, capaz de configurar textos polifónicos en los que adquieren protagonismo aquellas perspectivas que son ajenas a las narrativas dominantes de la historia. ***EN. In this article, the possibilities and limits of comics as a language for documenting events that have actually taken place are analyzed from a semiotic perspective. Since its referential character cannot be constructed on the basis of properties inherent to a technical device lacking the indexicality of photographic and phonographic media, documentary comics have recourse to a set of supplementary mechanisms aimed at conferring legitimacy to the enunciating entity as the producer of a genuine discourse. Based on the examination of a number of works in the field, this article demonstrates that the choice of these resources is determined on a case-by-case basis and based on the (sub)genre to which the text belongs to, which may be either closer to journalistic reportage or more akin to classic narrative genres. The mechanisms employed, however, do not allow us to bypass the issues which derives from the fact that events and facts are reported by means of illustrations over which the author-illustrator has total control. This, in turn, ends up offering a representation of reality that is interpreted on the same level of the visual component, with the obvious 'risks' that it can imply. It is concluded that the opaque or non-naturalistic character of comics, as a text composed of sequences of still images made by hand, has at least the benefit of allowing the reader to keep in mind that they are in the presence of a discourse, and not reality itself. Similarly, the combination of various verification mechanisms, such as testimonies, expertise and other documents, with powerful expressive resources derived from the cinema (documentary and fiction movies) as well as journalism, makes comics a ductile medium with the properties enabling the production of polyphonic narratives that put into the light perspectives alternative voices, far from the dominant narratives of history. *** PT. Esse artigo analisa, a partir de uma perspectiva semiótica, as possibilidades e limitações dos quadrinhos como uma linguagem usada para documentar eventos que realmente aconteceram. Como seu caráter referencial não pode ser construído com base em propriedades inerentes a um dispositivo técnico desprovido de indexicalidade dos registros fotográficos e fonográficos, os quadrinhos documentais recorrem a uma série de mecanismos auxiliares que visam conferir legitimidade à instância de enunciação como produtora de um discurso verdadeiro. Esse artigo mostra, com base no estudo de alguns trabalhos da área, que a escolha desses recursos é determinada, em cada caso, pelo (sub)gênero em que o texto está inscrito, que pode ser mais próximo da reportagem jornalística ou mais semelhante aos gêneros da narrativa clássica. Os mecanismos empregados, no entanto, não permitem evitar o problema que surge da perspectiva de que a representação dos fatos ocorre por meio de ilustrações que estão totalmente sob o controle do autor-desenhista, o que acaba oferecendo uma representação da realidade que é interpretada no mesmo nível do componente visual, com os óbvios "riscos" que isso implica. Conclui-se que o caráter opaco ou não naturalista dos quadrinhos, como um texto composto de sequências de imagens estáticas feitas à mão, tem, pelo menos, o mérito de lembrar ao leitor que ele está sempre diante de um discurso e não das coisas em si. Da mesma forma, a combinação de mecanismos de controle – múltiplos testemunhos e documentos, consultas a especialistas, etc.– e de poderosos recursos expressivos extraídos do cinema (documentário e ficção), bem como do campo do jornalismo, fazem dos quadrinhos um meio dúctil, capaz de configurar textos polifônicos nos quais as perspectivas alheias às narrativas dominantes da história ganham destaque. *** FR. Cet article analyse, selon une perspective sémiotique, les possibilités et les limites de la bande dessinée en tant que langage utilisé pour documenter des événements ayant réellement eu lieu. Comme son caractère référentiel ne peut être construit sur la base de propriétés inhérentes à un dispositif technique dépourvu de l'indexicalité des supports photographiques et phonographiques, la BD documentaire a recourt à un ensemble de mécanismes auxiliaires visant à conférer à l'instance d’énonciation une légitimité en tant que productrice d'un discours vrai. À partir de l'étude de certains travaux du domaine, cet article montre que le choix de ces ressources est déterminé, au cas par cas, par le (sous-)genre dans lequel le texte s'inscrit, qui peut être plus proche du reportage journalistique ou s’apparenter davantage aux genres narratifs classiques. Les mécanismes utilisés ne permettent cependant pas d’éviter le problème lié au fait que la représentation des faits est réalisée au moyen d'illustrations sur lesquelles l'auteur-dessinateur a un contrôle total. La représentation de la réalité qui est ainsi proposée est alors interprétée au même niveau que l’élément visuel, avec les « risques » évidents que cela implique. Nous concluons en affirmant que le caractère opaque ou non naturaliste de la bande dessinée, en tant que texte constitué de séquences d'images statiques dessinées à la main, a au moins le mérite de rappeler au lecteur qu'il est toujours devant un discours, et non face aux choses elles-mêmes. De même, la combinaison de divers mécanismes de contrôle – témoignages et documents multiples, consultations d'experts, etc. – et de ressources expressives puissantes issues du cinéma (documentaire et de fiction), mais aussi du journalisme, fait de la bande dessinée un média ductile, à même de produire des textes polyphoniques qui mettent en avant des perspectives éloignées des récits dominants de l'histoire. ***
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Illustrations – Analyse et indexation des documents"

1

Fournier, Jérôme. « Indexation d'images par le contenu et recherche interactive dans les bases généralistes ». Cergy-Pontoise, 2002. http://biblioweb.u-cergy.fr/theses/02CERG0157.pdf.

Texte intégral
Résumé :
Nous nous intéressons à l'indexation et à la recherche des images par le contenu dans les bases généralistes. Nous présentons un système opérationnel nommé RETIN. Du point de vue indexation, nous proposons un traitement automatique et portons une attention particulière à la réduction de dimension et à l'augmentation de l'efficacité des signatures. Du point de vue recherche, nous utilisons le principe de la recherche-par-similarité et du bouclage de pertinence pour réduire le décalage entre l'information bas niveau extraite de l'image et la requête haut niveau de l'utilisateur. Nous proposons la mise à jour de la fonction de similarité ainsi qu'une stratégie d'exploration de la base pour la construction interactive d'une requête multiple. En outre, nous proposons une technique d'apprentissage à long-terme des similarités, basée sur les recherches passées pour le regroupement des images de la base en grandes catégories
This thesis deals with content-based image indexing and retrieval in general databases. We introduce an operational system named RETIN. From the indexing point of view, we propose an automatic processing in order to compute the image signatures. We also pay attention to dimensionality reduction and retrieval effectiveness improvement of signatures. From the retrieval point of view, we use the search-by-similarity and the relevance feedback principles in order to reduce the gap between the low-level information extracted from images and the high-level user's request. We propose a new method for the similarity function refinement and an exploration strategy for the interactive construction of a multiple request. Moreover, we introduce a long-term similarity learning technique, based on former retrieval sessions, which allows to cluster images into broad categories
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bouteldja, Nouha. « Accélération de la recherche dans les espaces de grande dimension : Application à l'indexation d'images par contenu visuel ». Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0628.

Texte intégral
Résumé :
L'objectif des travaux de recherche présentés dans cette thèse est l'accélération de la recherche dans les grandes bases de données décrites par des vecteurs de grande dimension. Différentes structures ont déjà été proposées dans la littérature afin de réduire les temps de recherche mais plusieurs d'entre elles souffrent du problème de la malédiction de la dimension. Dans une première partie de cette thèse nous avons revisité le phénomène de la malédiction de la dimension avec les index classiques afin de déterminer à partir de quelle dimension ces index deviennent inefficaces. Cette première étude a montré que les index classiques fonctionnent bien avec des dimensions modérées (< 30) avec les bases réelles. Toutefois pour des dimensions plus importantes le problème de la malédiction de la dimension persiste. D'un autre coté avec l'augmentation des volumes des données ces dernières décennies vu la facilité de leur stockage, les besoins d'accélération de la recherche sont de plus en plus importants. Ces derniers points ont motivé la proposition de HiPeR notre principale contribution. HiPeR est un modèle hiérarchique qui assure la recherche exacte, progressive et approximative avec contrôle de précision. Elle est basée sur une hiérarchie d'espaces et d'index : la recherche commence par les espaces à faibles dimensions afin de réduire les effets de la malédiction de la dimension fournissant un premier résultat. Ce dernier sera amélioré progressivement en utilisant de plus grandes dimensions. Différentes stratégies sont proposées pour parcourir HiPeR en assurant la recherche exacte ou approximative. La qualité de la réponse approximative est fixée par l'utilisateur au moment de la recherche. Afin d'assurer la qualité escomptée, la méthode suit un modèle de précision probabiliste et non paramétrique. Les expériences, menées sur trois bases réelles de 4 millions de points, montrent qu'HiPeR améliore considérablement les index classiques en termes de temps CPU et d'accès I/O. Dans la dernière partie de cette thèse nous avons étudié le cas particulier des requêtes multiples où chaque entité de la base est décrite par plusieurs vecteurs. Afin d'accélérer la recherche dans une telle configuration, différentes stratégies ont été proposées et expérimentées avec les index classiques et HiPeR
In this thesis we are interested in accelerating retrieval in large databases where entities are described with high dimensional vectors (or multidimensional points). Several index structures have been already proposed to accelerate retrieval but a large number of these structures suffer from the well known Curse of Dimensionality phenomenon (CoD). In the first part of this thesis we revisited the CoD phenomenon with classical indices in order to determine from which dimension these indices does not work; Our study showed that classical indices still perform well with moderate dimensions (< 30) when dealing with real data. However, needs for accelerating retrieval are not satisfied when dealing with high dimensional spaces or with large databases. The latter observations motivated our main contribution called HiPeR. HiPeR is based on a hierarchy of subspaces and indexes: it performs nearest neighbors search across spaces of different dimensions, by beginning with the lowest dimensions up to the highest ones, aiming at minimizing the effects of curse of dimensionality. Scanning the hierarchy can be done according to several scenarios that are presented for retrieval of exact as well as approximate neighbors. In this work, HiPeR has been implemented on the classical index structure VA-File, providing VA-Hierarchies. For the approximate scenario, the model of precision loss defined is probabilistic and non parametric (very little assumptions are made on the data distribution) and quality of answers can be selected by user at query time. HiPeR is evaluated for range queries on 3 real data-sets of image descriptors varying from 500,000 vectors to 4 millions. The experiments demonstrate that the hierarchy of HiPeR improves the best index structure by significantly. Reducing CPU time, whatever the scenario of retrieval. Its approximate version improves even more retrieval by saving I/O access significantly. In the last part of our thesis, we studied the particular case of multiple queries where each database entity is represented with several vectors. To accelerate retrieval with such queries different strategies were proposed to reduce I/O and CPU times. The proposed strategies were applied both to simple indices as well as to HiPeR
Styles APA, Harvard, Vancouver, ISO, etc.
3

Landré, Jérôme. « Analyse multirésolution pour la recherche et l'indexation d'images par le contenu dans les bases de données images : application à la base d'images paléontologique Trans'Tyfipal ». Dijon, 2005. http://www.theses.fr/2005DIJOS043.

Texte intégral
Résumé :
Ce travail présente une méthode de recherche d'images par navigation visuelle basée sur la construction de hiérarchies de signatures de tailles réduites croissantes, par un expert du domaine de la base d'images, prenant en compte le contexte de recherche de l'utilisateur. Les signatures sont utilisées pour construire un arbre de recherche flou grâce à l'algorithme des nuées dynamiques (dont deux améliorations sont proposées). Notre logiciel de démonstration utilise une interface web dynamique (PHP), les traitements d'images (optimisés) sont réalisés grâce aux librairies Intel IPP et OpenCV, le stockage est réalisé par une base de données MySQL, une interface de visualisation 3D (Java3D) permet de se rendre compte de la répartition des images dans la classification. Un protocole de test psycho-visuel a été réalisé. Notre méthode donne de bons résultats, tant en temps de calcul qu'en pertinence des images résultats lors de la navigation pour des bases d'images homogènes
In our work we propose a visual browsing method for content-based images retrieval consisting of the building of reduced increasing sizes signature vectors extracted from images descriptor vector by an expert of the domain of the images database. Signatures are used to build a fuzzy research tree with k-means algorithm (two improvements of this algorithm are given). Our demonstration software uses a web dynamic interface (PHP), image processing is performed by Intel OpenCV and IPP libraries, data is stored in a MySQL database, a Java3D interface allows to study visual behavior of images after classification. A testing protocol has been realized. Our method gives good results, in terms of computing time and quality of visual browsing results for homogeneous images databases
Styles APA, Harvard, Vancouver, ISO, etc.
4

Julien, Charbel. « Image statistical learning using mixture models ». Lyon 2, 2008. http://theses.univ-lyon2.fr/documents/lyon2/2008/julien_c.

Texte intégral
Résumé :
This thesis addresses the problem of modeling the low level visual content (Color, Texture, etc…). Modeling the low level visual content is the first step in any content based image retrieval system. In this thesis we have chosen to model low-level visual content by using a discrete distribution (signature) or a discrete mixture model (GMM) as alternatives, instead of using a multi-dimensional feature vector. Learning a model by signature or by a GMM employing user constraints was presented also. In the literature many relevant works prove the better performance of this kind of image representation instead of the classical fixed-size feature vector. A prototype of image database browsing as well as a semi-automatic image organizing tool that exploits user feedbacks was proposed. Canonical distances such as Euclidian distance, L-2 distance, etc. Can’t be used in the case of signatures. Instead, distances like “Mallows distance” and “Earth Mover’s distance EMD” based on linear optimization are to be considered in the case of signatures. We use an iterative algorithm to compute a model that represents image-sets using user constraints. This optimization problem can be considered as an expectation maximization process. For the expectation step, a soft clustering, with a partial weight, is done with every component's distribution associated with a component of the mixture model we seek to compute. The expectation step is worked out by solving a linear optimization problem. Later, using these partial weights we recompute new components and new component-weights of the centroid, i. E. The maximization step
Les travaux de la thèse ont porté essentiellement sur la modélisation du contenu visuel de bas niveau des images (Couleur, Texture, etc…). La modélisation de contenu visuel est la première étape à considérer dans tout système automatique de recherche d'image par contenu, y compris les approches d'apprentissage supervisé, non-supervisé, et semi-supervisé. Dans cette thèse nous avons choisi de modéliser le contenu visuel de bas niveau, par une signature « discret distribution » ou par un modèle du mélange « GMM » au lieu des simples modèles statistiques largement utilisés dans la littérature. En utilisant ces deux types de représentation, un prototype de clustering des bases d'images a été implémenté. Ce prototype est capable d'extraire les signatures et les GMM qui représentent les images, elles sont sauvegardées pour des traitements ultérieurs y compris le clustering des images. Dans ce type de représentation les distances classiques comme la distance Euclidienne, L-2 distance, etc. Ne seront plus applicables. Des distances qui nécessitent une optimisation linéaire peuvent être utilisées pour mesurer la distance entre signatures ou GMMs, exemple : « Mallows distance » et « Earth Mover’s distance EMD ». Calculer un vecteur moyen dans le cas où on utilise des vecteurs multidimensionnels, de longueur fixe, pour représenter les images peut être relativement facile. Par contre, dans notre cas un algorithme itératif qui nécessite de nouveau une optimisation linéaire a été proposé pour apprendre un modèle, signature ou GMM, et cela en exploitant les contraintes fixées par les utilisateurs
Styles APA, Harvard, Vancouver, ISO, etc.
5

Goëau, Hervé. « Structuration de collections d'images par apprentissage actif crédibiliste ». Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10070.

Texte intégral
Résumé :
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction
Image annotation is an essential task in professional archives exploitation. Archivsits must describe every image in order to make easier future retrieval tasks. The main difficulties are how to interpret the visual contents, how to bring together images whitch can be associated in same categories, and how to deal with the user's subjectivity. In this thesis, we use the principle of active learning in order to help a user who wants organize with accuracy image collections. From the visual content analysis, complementary active learning strategies are proposed to the user to help him to identify and put together images in relevant categories according to his oppinion. We choose to express this image classification problem with active learning by using the Transferable Belief Model (TBM), an elaboration on the Dempster-Shafer theory of evidence. The TBM allows the combination, the revision and the representation of the knowledge which can be extracted from the visual contents and the previously identified categories. Our method proposed in this theoritical framework gives a detailed modeling of the knowledge by representing explicitly cases of multi-labeling, while quantifying uncertainty (related to the semantic gap) and conflict induced by the analysis of the visual content in different modalities (colors, textures). A human-machine interface was developed in order to validate our approach on reference tests, personal images collections and professional photos from the National Audiovisual Institute. An evaluation was driven with professional users and showed very positive results in terms of utility, of usability and satisfaction
Styles APA, Harvard, Vancouver, ISO, etc.
6

Belghith, Akram. « Indexation de spectres HSQC et d’images IRMf appliquée à la détection de bio-marqueurs ». Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD001/document.

Texte intégral
Résumé :
Les techniques d'acquisition des signaux médicaux sont en constante évolution et fournissent une quantité croissante de données hétérogènes qui doivent être analysées par le médecin. Dans ce contexte, des méthodes automatiques de traitement des signaux médicaux sont régulièrement proposées pour aider l'expert dans l'analyse qualitative et quantitative en facilitant leur interprétation. Ces méthodes doivent tenir compte de la physique de l'acquisition, de l'a priori que nous avons sur ces signaux et de la quantité de données à analyser pour une interprétation plus précise et plus fiable. Dans cette thèse, l'analyse des tissus biologique par spectroscopie RMN et la recherche des activités fonctionnelles cérébrales et leurs connectivités par IRMf sont explorées pour la recherche de nouveaux bio-marqueurs. Chaque information médicale sera caractérisée par un ensemble d'objets que nous cherchons à extraire, à aligner, et à coder. Le regroupement de ces objets par la mesure de leur similitude permettra leur classification et l'identification de bio-marqueurs. C'est ce schéma global d'indexation et de recherche par le contenu d'objets pour la détection des bio-marqueurs que nous proposons. Pour cela, nous nous sommes intéressés dans cette thèse à modéliser et intégrer les connaissances a priori que nous avons sur ces signaux biologiques permettant ainsi de proposer des méthodes appropriées à chaque étape d'indexation et à chaque type de signal
The medical signal acquisition techniques are constantly evolving in recent years and providing an increasing amount of data which should be then analyzed. In this context, automatic signal processing methods are regularly proposed to assist the expert in the qualitative and quantitative analysis of these images in order to facilitate their interpretation. These methods should take into account the physics of signal acquisition, the a priori we have on the signal formation and the amount of data to analyze for a more accurate and reliable interpretation. In this thesis, we focus on the two-dimensional 2D Heteronuclear Single Quantum Coherence HSQC spectra obtained by High-Resolution Magic Angle Spinning HR-MAS NMR for biological tissue analysis and the functional Magnetic Resonance Imaging fMRI images for functional brain activities analysis. Each processed medical information will be characterized by a set of objects that we seek to extract, align, and code. The clustering of these objects by measuring their similarity will allow their classification and then the identification of biomarkers. It is this global content-based object indexing and retrieval scheme that we propose. We are interested in this thesis to properly model and integrate the a priori knowledge we have on these biological signal allowing us to propose there after appropriate methods to each indexing step and each type of signal
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ferecatu, Marin. « Recherche d'images par retour de pertinence actif utilisant des descripteurs visuels et textuels ». Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0001.

Texte intégral
Résumé :
Cette thèse explore un nombre de problèmes liés à la recherche interactive d'images dans de grandes bases multimédia, en utilisant à la fois la description de l'apparence visuelle et les éventuelles informations textuelles. Nous introduisons d'abord les signatures couleur pondérées par une mesure locale de non-uniformité des pixels, qui intègrent en même temps plusieurs caractéristiques visuelles des images (couleur, texture et forme), et nous validons leur qualité sur différentes bases vérité terrain. Ensuite, nous présentons plusieurs améliorations pour le contrôle de pertinence basé sur les machines à vecteurs de support (SVM) : premièrement, nous introduisons une nouvelle méthode d'apprentissage actif avec réduction de la redondance entre les exemples ; deuxièmement, nous proposons l'utilisations de fonctions noyau spécifiques (comme le noyau triangulaire) pour obtenir l'insensibilité de la SVM au changement d'échelle des données, tout en gardant une très bonne qualité des résultats obtenus. Pour les bases d'images qui possèdent des annotations textuelles, nous présentons une méthode qui, à partir des mots-clefs, fait appel à une ontologie externe (WordNet) afin de produire un descripteur conceptuel pour chaque image. La combinaison de notre nouveau descripteur conceptuel avec les descripteurs visuels permet d'obtenir des résultats sensiblement meilleurs dans tous les tests que nous avons faits
In this thesis we explore a number of issues related to interactive querying of image databases, using both the description of the visual appearance and keyword annotations. We start by introducing the weighted color histograms, that intimately integrate color, texture and shape, and we validate their quality on multiple ground truth databases. Then, we propose several improvements for the SVM-based relevance feedback approach: first, we put forward an improved active learning selection strategy, based on a reduction of the redundancy between the images selected at every feedback round and second, we propose the use of specific kernel functions, such as the triangular kernel, that allow to obtain insensitivity to changes in the scale of the data, while keeping performance at a very good level. Finally, for image databases having keyword annotations associated with images, we propose a new keyword-based feature vector that makes use of an external ontology (WordNet) to induce a semantic generalization of the concepts corresponding to keywords. When used in combination with the visual signatures, our new feature vector can improve significantly the quality of the returned results both in query by visual example situation and with relevance feedback
Styles APA, Harvard, Vancouver, ISO, etc.
8

Goëau, Hervé. « Structuration de collections d'images par apprentissage actif crédibiliste ». Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00410380.

Texte intégral
Résumé :
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Journet, Nicholas. « Analyse d’images de documents anciens : une approche texture ». La Rochelle, 2006. http://www.theses.fr/2006LAROS178.

Texte intégral
Résumé :
Mes travaux de thèse sont liés à la problématique de l'indexation de grosses quantités d'images de documents anciens. Ils visent à traiter un corpus de documents dont le contenu (texte et image) ainsi que la mise en page se trouvent être fortement variables (l'ensemble des ouvrages d'une bibliothèque par exemple). Ainsi, il n'est donc pas envisageable de travailler sur ce corpus tel qu'on le fait habituellement avec les documents contemporains. En effet, les premiers tests que nous avons effectués sur le corpus du Centre d'Etudes Supérieures de la Renaissance de Tours, avec qui nous travaillons, ont confirmé que les approches classiques (guidée par le modèle) sont peu efficaces car il est impossible d'émettre des hypothèses sur la structure physique ou logique des documents traités. . Nous avons également constaté le manque d'outils permettant l'indexation de grandes bases d'images de documents anciens Face à ce double constat, ces travaux de thèse nous ont amené à proposer une méthode de caractérisation du contenu d'images de documents anciens. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de document. Ainsi, en extrayant des signatures liées aux fréquences et aux orientations des différentes parties d'une page, il est possible d'extraire, de comparer ou encore d'identifier des éléments de haut niveau sémantique (lettrines, illustrations, texte, mise en page. . . ) sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Ces indices textures ont permis la création d'outils d'aide à l'indexation de grosses bases d'images de documents anciens
My phd thesis subject is related to the topic of old documents images indexation. The corpus of old documents has specific characteristics. The content (text and image) as well as the layout information are strongly variable. Thus, it is not possible to work on this corpus such as it usually done with contemporary documents. Indeed, the first tests which we realised on the corpus of the “Centre d’Etude de la Renaissance”, with which we work, confirmed that the traditional approaches (driven –model approaches) are not very efficient because it’s impossible to put assumptions on the physical or logical structure of the old documents. We also noted the lack of tools allowing the indexing of large old documents images databases. In this phd work, we propose a new generic method which permits characterization of the contents of old documents images. This characterization is carried out using a multirésolution study of the textures contained in the images of documents. By constructing signatures related with the frequencies and the orientations of the various parts of a page it is possible to extract, compare or to identify different kind of semantic elements (reference letters, illustrations, text, layout. . . ) without making any assumptions about the physical or logical structure of the analyzed documents. These textures information are at the origin of creation of indexing tools for large databases of old documents images
Styles APA, Harvard, Vancouver, ISO, etc.
10

Régimbeau, Gérard. « Thematique des oeuvres plastiques contemporaines et indexation documentaire ». Toulouse 2, 1996. http://www.theses.fr/1996TOU20071.

Texte intégral
Résumé :
La recherche documentaire sur les oeuvres plastiques du 20e siecle fait souvent intervenir la notion de theme. Quelles methodes et quels moyens adopter pour y repondre ? telle est la question essentielle de la these dont la perspective n'est pas strictement museographique, mais concerne plus globalement les documents textuels et iconiques edites a propos des oeuvres qui forment les ressources des centres de documentation et des bibliotheques specialises. Une premiere partie precise la position documentologique du probleme, au croisement des sciences de l'information et de l'histoire de l'art contemporain. Une deuxieme partie est consacree a l'observation, l'analyse et l'evaluation des outils documentaires : a) des documents primaires (index des ouvrages, catalogues d'expositions et periodiques) ; b) des systemes d'indexation pratiques dans les documents secondaires (repertoires bibliographiques) ; c) des bases de donnees et banques d'images, pour verifier quels types de renseignements thematiques on peut recueillir grace a eux. Devant des resultats insuffisants, la question du theme doit etre reprise et exploree dans le champ documentaire. La troisieme partie developpe arguments theoriques, methodologiques et propositions pour une indexation des themes appliquee aux textes et aux reproductions sur les oeuvres contemporaines. Les questions particulieres du theme dans les oeuvres abstraites et "materiologiques" y sont abordees. La conclusion revient sur les necessites d'une definition de la thematique dans un cadre interdisciplinaire interessant l'iconographie, l'histoire culturelle et les sciences de l'information
Documentary searches on contemporary art works are often based on theme. This thesis primarily sets out to explore the means and methods needed to conduct searches of this type, not so much from a strictly museographical standpoint as from a perspective wich covers all textual and iconic documents published on the subject of art works, and which make up the ressources of document centres and specialised libraries. Part 1 sets out the issues in terms of documentology, which stand at the point of intersection between information sciences and contemporary art history. Part 2 describes, analyses and evaluates the search tools contained within primary documents (indexes of books, exhibition catalogues and periodicals), as well as the indexing systems used in secondary documents (bibliographies), data bases and image banks, to ascertain what sort of thematic information that can be extracted from them. Since results are often inadequate, the theme in question needs to be reexamined and explored in relation to the field of documentation. Part 3 sets out theoritical and methodological premises, and puts forward a basis for thematic indexing of texts and reproductions in the field of contemporary art. Specific issues relating to theme in abstract and "materiological" art are also addressed. The conclusion emphasises the needs to define thematics within an interdisciplinary context wich includes iconography, cultural history and information sciences
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Illustrations – Analyse et indexation des documents"

1

Turner, James M. Images en mouvement : Stockage, repérage, indexation. Sainte-Foy : Presses de l'Université du Québec, 1998.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Burpee, Lawrence J. Check-list of Canadian public documents. [Canada ? : s.n., 1994.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Abstracting, information retrieval, and the humanities : Providing access to historical literature. Chicago : American Library Association, 1993.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bonura, Larry S. The art of indexing. New York : Wiley, 1994.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

L, Milstead Jessica, et Engineering Information Inc, dir. Ei Thesaurus. 4e éd. Hoboken, N.J : Engineering Information Inc., 2001.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

L, Milstead Jessica, et Engineering Information Inc, dir. Ei Thesaurus. 4e éd. Hoboken, N.J : Engineering Information Inc., 2001.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Olderr, Steven. Olderr's fiction subject headings : A supplement and guide to the LC thesaurus. Chicago : American Library Association, 1991.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Unruh, Betty. The Information marketing handbook. Sous la direction de National Federation of Abstracting and Information Services (U.S.). Philadelphia, PA : National Federation of Abstracting and Information Services, 1989.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gorman, G. E. Guide to current indexing and abstracting services in the Third World. London : H. Zell Publishers, 1992.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Indexing and abstracting in theory and practice. 3e éd. London : Facet Pub., 2003.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie