Literatura académica sobre el tema "Multimodal Information Retrieval"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Multimodal Information Retrieval".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Multimodal Information Retrieval"
Xu, Hong. "Multimodal bird information retrieval system". Applied and Computational Engineering 53, n.º 1 (28 de marzo de 2024): 96–102. http://dx.doi.org/10.54254/2755-2721/53/20241282.
Texto completoCui, Chenhao y Zhoujun Li. "Prompt-Enhanced Generation for Multimodal Open Question Answering". Electronics 13, n.º 8 (10 de abril de 2024): 1434. http://dx.doi.org/10.3390/electronics13081434.
Texto completoKulvinder Singh, Et al. "Enhancing Multimodal Information Retrieval Through Integrating Data Mining and Deep Learning Techniques". International Journal on Recent and Innovation Trends in Computing and Communication 11, n.º 9 (30 de octubre de 2023): 560–69. http://dx.doi.org/10.17762/ijritcc.v11i9.8844.
Texto completoUbaidullahBokhari, Mohammad y Faraz Hasan. "Multimodal Information Retrieval: Challenges and Future Trends". International Journal of Computer Applications 74, n.º 14 (26 de julio de 2013): 9–12. http://dx.doi.org/10.5120/12951-9967.
Texto completoCalumby, Rodrigo Tripodi. "Diversity-oriented Multimodal and Interactive Information Retrieval". ACM SIGIR Forum 50, n.º 1 (27 de junio de 2016): 86. http://dx.doi.org/10.1145/2964797.2964811.
Texto completoS. Gomathy, K. P. Deepa, T. Revathi y L. Maria Michael Visuwasam. "Genre Specific Classification for Information Search and Multimodal Semantic Indexing for Data Retrieval". SIJ Transactions on Computer Science Engineering & its Applications (CSEA) 01, n.º 01 (5 de abril de 2013): 10–15. http://dx.doi.org/10.9756/sijcsea/v1i1/01010159.
Texto completoZHANG, Jing. "Video retrieval model based on multimodal information fusion". Journal of Computer Applications 28, n.º 1 (10 de julio de 2008): 199–201. http://dx.doi.org/10.3724/sp.j.1087.2008.00199.
Texto completoMourão, André, Flávio Martins y João Magalhães. "Multimodal medical information retrieval with unsupervised rank fusion". Computerized Medical Imaging and Graphics 39 (enero de 2015): 35–45. http://dx.doi.org/10.1016/j.compmedimag.2014.05.006.
Texto completoRevuelta-Martínez, Alejandro, Luis Rodríguez, Ismael García-Varea y Francisco Montero. "Multimodal interaction for information retrieval using natural language". Computer Standards & Interfaces 35, n.º 5 (septiembre de 2013): 428–41. http://dx.doi.org/10.1016/j.csi.2012.11.002.
Texto completoChen, Xu, Alfred O. Hero, III y Silvio Savarese. "Multimodal Video Indexing and Retrieval Using Directed Information". IEEE Transactions on Multimedia 14, n.º 1 (febrero de 2012): 3–16. http://dx.doi.org/10.1109/tmm.2011.2167223.
Texto completoTesis sobre el tema "Multimodal Information Retrieval"
Adebayo, Kolawole John <1986>. "Multimodal Legal Information Retrieval". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amsdottorato.unibo.it/8634/1/ADEBAYO-JOHN-tesi.pdf.
Texto completoValero-Mas, Jose J. "Towards Interactive Multimodal Music Transcription". Doctoral thesis, Universidad de Alicante, 2017. http://hdl.handle.net/10045/71275.
Texto completoFedel, Gabriel de Souza. "Busca multimodal para apoio à pesquisa em biodiversidade". [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275751.
Texto completoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-18T07:07:49Z (GMT). No. of bitstreams: 1 Fedel_GabrieldeSouza_M.pdf: 14390093 bytes, checksum: 63058da33a22121e927f1cdbaff297d3 (MD5) Previous issue date: 2011
Resumo: A pesquisa em computação aplicada à biodiversidade apresenta muitos desafios, que vão desde o grande volume de dados altamente heterogêneos até a variedade de tipos de usuários. Isto gera a necessidade de ferramentas versáteis de recuperação. As ferramentas disponíveis ainda são limitadas e normalmente só consideram dados textuais, deixando de explorar a potencialidade da busca por dados de outra natureza, como imagens ou sons. Esta dissertação analisa os problemas de realizar consultas multimodais a partir de predicados que envolvem texto e imagem para o domínio de biodiversidade, especificando e implementando um conjunto de ferramentas para processar tais consultas. As contribuições do trabalho, validado com dados reais, incluem a construção de uma ontologia taxonômica associada a nomes vulgares e a possibilidade de apoiar dois perfis de usuários (especialistas e leigos). Estas características estendem o escopo da consultas atualmente disponíveis em sistemas de biodiversidade. Este trabalho está inserido no projeto Bio-CORE, uma parceria entre pesquisadores de computação e biologia para criar ferramentas computacionais para dar apoio à pesquisa em biodiversidade
Abstract: Research on Computing applied to biodiversity present several challenges, ranging from the massive volumes of highly heterogeneous data to the variety in user profiles. This kind of scenario requires versatile data retrieval and management tools. Available tools are still limited. Most often, they only consider textual data and do not take advantage of the multiple data types available, such as images or sounds. This dissertation discusses issues concerning multimodal queries that involve both text and images as search parameters, for the domanin of biodiversity. It presents the specification and implementation of a set of tools to process such queries, which were validate with real data from Unicamp's Zoology Museum. The aim contributions also include the construction of a taxonomic ontology that includes species common names, and support to both researchers and non-experts in queries. Such features extend the scop of queries available in biodiversity information systems. This research is associated with the Biocore project, jointly conducted by researchers in computing and biology, to design and develop computational tools to support research in biodiversity
Mestrado
Banco de Dados
Mestre em Ciência da Computação
Quack, Till. "Large scale mining and retrieval of visual data in a multimodal context". Konstanz Hartung-Gorre, 2009. http://d-nb.info/993614620/04.
Texto completoCalumby, Rodrigo Tripodi 1985. "Recuperação multimodal de imagens com realimentação de relevância baseada em programação genética". [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275814.
Texto completoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-16T05:18:58Z (GMT). No. of bitstreams: 1 Calumby_RodrigoTripodi_M.pdf: 15749586 bytes, checksum: 2493b0b703adc1973eeabf7eb70ad21c (MD5) Previous issue date: 2010
Resumo: Este trabalho apresenta uma abordagem para recuperação multimodal de imagens com realimentação de relevância baseada em programação genética. Supõe-se que cada imagem da coleção possui informação textual associada (metadado, descrição textual, etc.), além de ter suas propriedades visuais (por exemplo, cor e textura) codificadas em vetores de características. A partir da informação obtida ao longo das iterações de realimentação de relevância, programação genética é utilizada para a criação de funções de combinação de medidas de similaridades eficazes. Com essas novas funções, valores de similaridades diversos são combinados em uma única medida, que mais adequadamente reflete as necessidades do usuário. As principais contribuições deste trabalho consistem na proposta e implementação de dois arcabouços. O primeiro, RFCore, é um arcabouço genérico para atividades de realimentação de relevância para manipulação de objetos digitais. O segundo, MMRFGP, é um arcabouço para recuperação de objetos digitais com realimentação de relevância baseada em programação genética, construído sobre o RFCore. O método proposto de recuperação multimodal de imagens foi validado sobre duas coleções de imagens, uma desenvolvida pela Universidade de Washington e outra da ImageCLEF Photographic Retrieval Task. A abordagem proposta mostrou melhores resultados para recuperação multimodal frente a utilização das modalidades isoladas. Além disso, foram obtidos resultados para recuperação visual e multimodal melhores do que as melhores submissões para a ImageCLEF Photographic Retrieval Task 2008
Abstract: This work presents an approach for multimodal content-based image retrieval with relevance feedback based on genetic programming. We assume that there is textual information (e.g., metadata, textual descriptions) associated with collection images. Furthermore, image content properties (e.g., color and texture) are characterized by image descriptores. Given the information obtained over the relevance feedback iterations, genetic programming is used to create effective combination functions that combine similarities associated with different features. Hence using these new functions the different similarities are combined into a unique measure that more properly meets the user needs. The main contribution of this work is the proposal and implementation of two frameworks. The first one, RFCore, is a generic framework for relevance feedback tasks over digital objects. The second one, MMRF-GP, is a framework for digital object retrieval with relevance feedback based on genetic programming and it was built on top of RFCore. We have validated the proposed multimodal image retrieval approach over 2 datasets, one from the University of Washington and another from the ImageCLEF Photographic Retrieval Task. Our approach has yielded the best results for multimodal image retrieval when compared with one-modality approaches. Furthermore, it has achieved better results for visual and multimodal image retrieval than the best submissions for ImageCLEF Photographic Retrieval Task 2008
Mestrado
Sistemas de Recuperação da Informação
Mestre em Ciência da Computação
SIMONETTA, FEDERICO. "MUSIC INTERPRETATION ANALYSIS. A MULTIMODAL APPROACH TO SCORE-INFORMED RESYNTHESIS OF PIANO RECORDINGS". Doctoral thesis, Università degli Studi di Milano, 2022. http://hdl.handle.net/2434/918909.
Texto completoNag, Chowdhury Sreyasi [Verfasser]. "Text-image synergy for multimodal retrieval and annotation / Sreyasi Nag Chowdhury". Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2021. http://d-nb.info/1240674139/34.
Texto completoInagaki, Yasuyoshi, Katsuhiko Toyama, Nobuo Kawaguchi, Shigeki Matsubara, Satoru Matsunaga, 康善 稲垣, 勝彦 外山, 信夫 河口, 茂樹 松原 y 悟. 松永. "Sync/Mail : 話し言葉の漸進的変換に基づく即時応答インタフェース". 一般社団法人情報処理学会, 1998. http://hdl.handle.net/2237/15382.
Texto completoKarlsson, Kristina. "Semantic represenations of retrieved memory information depend on cue-modality". Thesis, Stockholms universitet, Psykologiska institutionen, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-58817.
Texto completoSlizovskaia, Olga. "Audio-visual deep learning methods for musical instrument classification and separation". Doctoral thesis, Universitat Pompeu Fabra, 2020. http://hdl.handle.net/10803/669963.
Texto completoEn la percepción musical, normalmente recibimos por nuestro sistema visual y por nuestro sistema auditivo informaciones complementarias. Además, la percepción visual juega un papel importante en nuestra experiencia integral ante una interpretación musical. Esta relación entre audio y visión ha incrementado el interés en métodos de aprendizaje automático capaces de combinar ambas modalidades para el análisis musical automático. Esta tesis se centra en dos problemas principales: la clasificación de instrumentos y la separación de fuentes en el contexto de videos musicales. Para cada uno de los problemas, se desarrolla un método multimodal utilizando técnicas de Deep Learning. Esto nos permite obtener -a través del aprendizaje- una representación codificada para cada modalidad. Además, para el problema de la separación de fuentes, también proponemos dos modelos condicionados a las etiquetas de los instrumentos, y examinamos la influencia que tienen dos fuentes de información extra en el rendimiento de la separación -comparándolas contra un modelo convencional-. Otro aspecto importante de este trabajo se basa en la exploración de diferentes modelos de fusión que permiten una mejor integración multimodal de fuentes de información de dominios asociados.
En la percepció visual, és habitual que rebem informacions complementàries des del nostres sistemes visual i auditiu. A més a més, la percepció visual té un paper molt important en la nostra experiència integral davant una interpretació musical. Aquesta relació entre àudio i visió ha fet créixer l'interès en mètodes d’aprenentatge automàtic capaços de combinar ambdues modalitats per l’anàlisi musical automàtic. Aquesta tesi se centra en dos problemes principals: la classificació d'instruments i la separació de fonts en el context dels vídeos musicals. Per a cadascú dels problemes, s'ha desenvolupat un mètode multimodal fent servir tècniques de Deep Learning. Això ens ha permès d'obtenir – gràcies a l’aprenentatge- una representació codificada per a cada modalitat. A més a més, en el cas del problema de separació de fonts, també proposem dos models condicionats a les etiquetes dels instruments, i examinem la influència que tenen dos fonts d’informació extra sobre el rendiment de la separació -tot comparant-les amb un model convencional-. Un altre aspecte d’aquest treball es basa en l’exploració de diferents models de fusió, els quals permeten una millor integració multimodal de fonts d'informació de dominis associats.
Libros sobre el tema "Multimodal Information Retrieval"
Peters, Carol, Valentin Jijkoun, Thomas Mandl, Henning Müller, Douglas W. Oard, Anselmo Peñas, Vivien Petras y Diana Santos, eds. Advances in Multilingual and Multimodal Information Retrieval. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-85760-0.
Texto completoJay, Kuo C. C., ed. Video content analysis using multimodal information: For movie content extraction, indexing, and representation. Boston, Mass: Kluwer Academic Publishers, 2003.
Buscar texto completoLi, Ying. Video Content Analysis Using Multimodal Information: For Movie Content Extraction, Indexing and Representation. Boston, MA: Springer US, 2003.
Buscar texto completoC, Peters, ed. Advances in multilingual and multimodal information retrieval: 8th Workshop of the Cross-Language Evaluation Forum, CLEF 2007, Budapest, Hungary, September 19-21, 2007 : revised selected papers. Berlin: Springer, 2008.
Buscar texto completoForner, Pamela. Multilingual and Multimodal Information Access Evaluation: Second International Conference of the Cross-Language Evaluation Forum, CLEF 2011, Amsterdam, The Netherlands, September 19-22, 2011. Proceedings. Berlin, Heidelberg: Springer-Verlag GmbH Berlin Heidelberg, 2011.
Buscar texto completoLi, Ying. Video content analysis using multimodal information: For movie content extraction, indexing, and representation. Boston, MA: Kluwer Academic Publishers, 2003.
Buscar texto completoEsposito, Anna. Toward Autonomous, Adaptive, and Context-Aware Multimodal Interfaces. Theoretical and Practical Issues: Third COST 2102 International Training School, Caserta, Italy, March 15-19, 2010, Revised Selected Papers. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011.
Buscar texto completoGosse, Bouma y SpringerLink (Online service), eds. Interactive Multi-modal Question-Answering. Berlin, Heidelberg: Springer-Verlag Berlin Heidelberg, 2011.
Buscar texto completoAndrzej, Drygajlo, Esposito Anna, Ortega-Garcia Javier, Faúndez Zanuy Marcos y SpringerLink (Online service), eds. Biometric ID Management and Multimodal Communication: Joint COST 2101 and 2102 International Conference, BioID_MultiComm 2009, Madrid, Spain, September 16-18, 2009. Proceedings. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009.
Buscar texto completoUte, Jekosch, Brewster Stephen 1967- y SpringerLink (Online service), eds. Haptic and Audio Interaction Design: 4th International Conference, HAID 2009 Dresden, Germany, September 10-11, 2009 Proceedings. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009.
Buscar texto completoCapítulos de libros sobre el tema "Multimodal Information Retrieval"
Baeza-Yates, Ricardo. "Retrieval Evaluation in Practice". En Multilingual and Multimodal Information Access Evaluation, 2. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-15998-5_2.
Texto completoChang, Edward Y. "Multimodal Fusion". En Foundations of Large-Scale Multimedia Information Management and Retrieval, 121–40. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-20429-6_6.
Texto completoMarx, Jutta y Stephan Roppel. "WING: An Intelligent Multimodal Interface for a Materials Information System". En 14th Information Retrieval Colloquium, 67–78. London: Springer London, 1993. http://dx.doi.org/10.1007/978-1-4471-3211-0_5.
Texto completoAlonso, Omar. "Crowdsourcing for Information Retrieval Experimentation and Evaluation". En Multilingual and Multimodal Information Access Evaluation, 2. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-23708-9_2.
Texto completoBozzon, Alessandro y Piero Fraternali. "Chapter 8: Multimedia and Multimodal Information Retrieval". En Search Computing, 135–55. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-12310-8_8.
Texto completoTautkute, Ivona y Tomasz Trzciński. "SynthTriplet GAN: Synthetic Query Expansion for Multimodal Retrieval". En Neural Information Processing, 287–98. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-92273-3_24.
Texto completoMayer, Rudolf y Andreas Rauber. "Multimodal Aspects of Music Retrieval: Audio, Song Lyrics – and Beyond?" En Advances in Music Information Retrieval, 333–63. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11674-2_15.
Texto completoNeumayer, Robert y Andreas Rauber. "Multimodal Analysis of Text and Audio Features for Music Information Retrieval". En Multimodal Processing and Interaction, 1–17. Boston, MA: Springer US, 2008. http://dx.doi.org/10.1007/978-0-387-76316-3_11.
Texto completoPurificato, Erasmo y Antonio M. Rinaldi. "A Multimodal Approach for Cultural Heritage Information Retrieval". En Computational Science and Its Applications – ICCSA 2018, 214–30. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-95162-1_15.
Texto completoRashid, Umer, Iftikhar Azim Niaz y Muhammad Afzal Bhatti. "Unified Multimodal Search Framework for Multimedia Information Retrieval". En Advanced Techniques in Computing Sciences and Software Engineering, 129–36. Dordrecht: Springer Netherlands, 2009. http://dx.doi.org/10.1007/978-90-481-3660-5_22.
Texto completoActas de conferencias sobre el tema "Multimodal Information Retrieval"
Ji, Wei, Yinwei Wei, Zhedong Zheng, Hao Fei y Tat-seng Chua. "Deep Multimodal Learning for Information Retrieval". En MM '23: The 31st ACM International Conference on Multimedia. New York, NY, USA: ACM, 2023. http://dx.doi.org/10.1145/3581783.3610949.
Texto completoAhmed, Shaikh Riaz, Jian-Ping Li, Memon Muhammad Hammad y Khan Asif. "Image segmentation approach in multimodal information retrieval". En 2013 10th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP). IEEE, 2013. http://dx.doi.org/10.1109/iccwamtip.2013.6716624.
Texto completoZhang, Rui y Ling Guan. "Multimodal image retrieval via bayesian information fusion". En 2009 IEEE International Conference on Multimedia and Expo (ICME). IEEE, 2009. http://dx.doi.org/10.1109/icme.2009.5202623.
Texto completoBruno, Eric, Jana Kludas y Stephane Marchand-Maillet. "Combining multimodal preferences for multimedia information retrieval". En the international workshop. New York, New York, USA: ACM Press, 2007. http://dx.doi.org/10.1145/1290082.1290095.
Texto completoRusnandi, Enang, Edi Winarko y S. N. Azhari. "A Survey on Multimodal Information Retrieval Approach". En 2020 International Conference on Smart Technology and Applications (ICoSTA). IEEE, 2020. http://dx.doi.org/10.1109/icosta48221.2020.1570611095.
Texto completoValstar, Michel, Tobias Baur, Angelo Cafaro, Alexandru Ghitulescu, Blaise Potard, Johannes Wagner, Elisabeth André et al. "Ask Alice: an artificial retrieval of information agent". En ICMI '16: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2016. http://dx.doi.org/10.1145/2993148.2998535.
Texto completoCaicedo, Juan C. "Multimodal Information Spaces for Content-based Image Retrieval". En Third BCS-IRSG Symposium on Future Directions in Information Access (FDIA 2009). BCS Learning & Development, 2009. http://dx.doi.org/10.14236/ewic/fdia2009.18.
Texto completoFurui, Sadaoki y Koh'ichiro Yamaguchi. "Designing a multimodal dialogue system for information retrieval". En 5th International Conference on Spoken Language Processing (ICSLP 1998). ISCA: ISCA, 1998. http://dx.doi.org/10.21437/icslp.1998-84.
Texto completoJin, Zhenkun, Xingshi Wan, Xin Nie, Xinlei Zhou, Yuanyuan Yi y Gefei Zhou. "Ranking on Heterogeneous Manifold for Multimodal Information Retrieval". En 2023 IEEE Intl Conf on Parallel & Distributed Processing with Applications, Big Data & Cloud Computing, Sustainable Computing & Communications, Social Computing & Networking (ISPA/BDCloud/SocialCom/SustainCom). IEEE, 2023. http://dx.doi.org/10.1109/ispa-bdcloud-socialcom-sustaincom59178.2023.00162.
Texto completoWajid, Mohd Anas y Aasim Zafar. "Multimodal Information Access and Retrieval Notable Work and Milestones". En 2019 10th International Conference on Computing, Communication and Networking Technologies (ICCCNT). IEEE, 2019. http://dx.doi.org/10.1109/icccnt45670.2019.8944581.
Texto completo