Zeitschriftenartikel zum Thema „Visual grounding of text“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Visual grounding of text" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Chao Wang, Chao Wang, Wei Luo Chao Wang, Jia-Rui Zhu Wei Luo, Ying-Chun Xia Jia-Rui Zhu, Jin He Ying-Chun Xia und Li-Chuan Gu Jin He. „End-to-end Visual Grounding Based on Query Text Guidance and Multi-stage Reasoning“. 電腦學刊 35, Nr. 1 (Februar 2024): 083–95. http://dx.doi.org/10.53106/199115992024023501006.
Der volle Inhalt der QuelleRegneri, Michaela, Marcus Rohrbach, Dominikus Wetzel, Stefan Thater, Bernt Schiele und Manfred Pinkal. „Grounding Action Descriptions in Videos“. Transactions of the Association for Computational Linguistics 1 (Dezember 2013): 25–36. http://dx.doi.org/10.1162/tacl_a_00207.
Der volle Inhalt der QuelleZhan, Yang, Yuan Yuan und Zhitong Xiong. „Mono3DVG: 3D Visual Grounding in Monocular Images“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 7 (24.03.2024): 6988–96. http://dx.doi.org/10.1609/aaai.v38i7.28525.
Der volle Inhalt der QuelleZhang, Qianjun, und Jin Yuan. „Semantic-Aligned Cross-Modal Visual Grounding Network with Transformers“. Applied Sciences 13, Nr. 9 (04.05.2023): 5649. http://dx.doi.org/10.3390/app13095649.
Der volle Inhalt der QuelleShen, Haozhan, Tiancheng Zhao, Mingwei Zhu und Jianwei Yin. „GroundVLP: Harnessing Zero-Shot Visual Grounding from Vision-Language Pre-training and Open-Vocabulary Object Detection“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 5 (24.03.2024): 4766–75. http://dx.doi.org/10.1609/aaai.v38i5.28278.
Der volle Inhalt der QuelleLiu, Shilong, Shijia Huang, Feng Li, Hao Zhang, Yaoyuan Liang, Hang Su, Jun Zhu und Lei Zhang. „DQ-DETR: Dual Query Detection Transformer for Phrase Extraction and Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 2 (26.06.2023): 1728–36. http://dx.doi.org/10.1609/aaai.v37i2.25261.
Der volle Inhalt der QuelleCheng, Zesen, Kehan Li, Peng Jin, Siheng Li, Xiangyang Ji, Li Yuan, Chang Liu und Jie Chen. „Parallel Vertex Diffusion for Unified Visual Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 2 (24.03.2024): 1326–34. http://dx.doi.org/10.1609/aaai.v38i2.27896.
Der volle Inhalt der QuelleFeng, Steven Y., Kevin Lu, Zhuofu Tao, Malihe Alikhani, Teruko Mitamura, Eduard Hovy und Varun Gangal. „Retrieve, Caption, Generate: Visual Grounding for Enhancing Commonsense in Text Generation Models“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 10618–26. http://dx.doi.org/10.1609/aaai.v36i10.21306.
Der volle Inhalt der QuelleJia, Meihuizi, Lei Shen, Xin Shen, Lejian Liao, Meng Chen, Xiaodong He, Zhendong Chen und Jiaqi Li. „MNER-QG: An End-to-End MRC Framework for Multimodal Named Entity Recognition with Query Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 7 (26.06.2023): 8032–40. http://dx.doi.org/10.1609/aaai.v37i7.25971.
Der volle Inhalt der QuelleShi, Zhan, Yilin Shen, Hongxia Jin und Xiaodan Zhu. „Improving Zero-Shot Phrase Grounding via Reasoning on External Knowledge and Spatial Relations“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 2 (28.06.2022): 2253–61. http://dx.doi.org/10.1609/aaai.v36i2.20123.
Der volle Inhalt der QuelleGeng, Wenjia, Yong Liu, Lei Chen, Sujia Wang, Jie Zhou und Yansong Tang. „Learning Multi-Scale Video-Text Correspondence for Weakly Supervised Temporal Article Gronding“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 3 (24.03.2024): 1896–904. http://dx.doi.org/10.1609/aaai.v38i3.27959.
Der volle Inhalt der QuelleBu, Yuqi, Jiayuan Xie, Liuwu Li, Qiong Liu und Yi Cai. „Bridging the Gap between Expression and Scene Text for Referring Expression Comprehension (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 11 (28.06.2022): 12921–22. http://dx.doi.org/10.1609/aaai.v36i11.21597.
Der volle Inhalt der QuelleWang, Haowei, Jiayi Ji, Yiyi Zhou, Yongjian Wu und Xiaoshuai Sun. „Towards Real-Time Panoptic Narrative Grounding by an End-to-End Grounding Network“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 2 (26.06.2023): 2528–36. http://dx.doi.org/10.1609/aaai.v37i2.25350.
Der volle Inhalt der QuelleAyyubi, Hammad, Christopher Thomas, Lovish Chum, Rahul Lokesh, Long Chen, Yulei Niu, Xudong Lin et al. „Beyond Grounding: Extracting Fine-Grained Event Hierarchies across Modalities“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 16 (24.03.2024): 17664–72. http://dx.doi.org/10.1609/aaai.v38i16.29718.
Der volle Inhalt der QuelleBruni, E., N. K. Tran und M. Baroni. „Multimodal Distributional Semantics“. Journal of Artificial Intelligence Research 49 (23.01.2014): 1–47. http://dx.doi.org/10.1613/jair.4135.
Der volle Inhalt der QuelleLi, Mingxiao, Zehao Wang, Tinne Tuytelaars und Marie-Francine Moens. „Layout-Aware Dreamer for Embodied Visual Referring Expression Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 1 (26.06.2023): 1386–95. http://dx.doi.org/10.1609/aaai.v37i1.25223.
Der volle Inhalt der QuelleLei, Yang, Peizhi Zhao, Pijian Li, Yi Cai und Qingbao Huang. „Linking People across Text and Images Based on Social Relation Reasoning“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 1 (26.06.2023): 1260–68. http://dx.doi.org/10.1609/aaai.v37i1.25209.
Der volle Inhalt der QuelleReddy, Revant Gangi, Xilin Rui, Manling Li, Xudong Lin, Haoyang Wen, Jaemin Cho, Lifu Huang et al. „MuMuQA: Multimedia Multi-Hop News Question Answering via Cross-Media Knowledge Extraction and Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 11200–11208. http://dx.doi.org/10.1609/aaai.v36i10.21370.
Der volle Inhalt der QuelleXu, Lingjing, Yang Gao, Wenfeng Song und Aimin Hao. „Weakly Supervised Multimodal Affordance Grounding for Egocentric Images“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 6 (24.03.2024): 6324–32. http://dx.doi.org/10.1609/aaai.v38i6.28451.
Der volle Inhalt der QuelleScarlini, Bianca, Tommaso Pasini und Roberto Navigli. „Visual Definition Modeling: Challenging Vision & Language Models to Define Words and Objects“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 11267–75. http://dx.doi.org/10.1609/aaai.v36i10.21377.
Der volle Inhalt der QuelleMi, Li, Syrielle Montariol, Javiera Castillo Navarro, Xianjie Dai, Antoine Bosselut und Devis Tuia. „ConVQG: Contrastive Visual Question Generation with Multimodal Guidance“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 5 (24.03.2024): 4207–15. http://dx.doi.org/10.1609/aaai.v38i5.28216.
Der volle Inhalt der QuelleXu, Yifang, Yunzhuo Sun, Zien Xie, Benxiang Zhai und Sidan Du. „VTG-GPT: Tuning-Free Zero-Shot Video Temporal Grounding with GPT“. Applied Sciences 14, Nr. 5 (25.02.2024): 1894. http://dx.doi.org/10.3390/app14051894.
Der volle Inhalt der QuelleHuang, Pin-Hao, Han-Hung Lee, Hwann-Tzong Chen und Tyng-Luh Liu. „Text-Guided Graph Neural Networks for Referring 3D Instance Segmentation“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 2 (18.05.2021): 1610–18. http://dx.doi.org/10.1609/aaai.v35i2.16253.
Der volle Inhalt der QuelleHunter, yaTande Whitney V. „The “Ring Shout”: A Corporeal Conjuring of Black-Togetherness“. Dance Research Journal 55, Nr. 2 (August 2023): 44–57. http://dx.doi.org/10.1017/s0149767723000268.
Der volle Inhalt der QuelleYang, Ze, Wei Wu, Huang Hu, Can Xu, Wei Wang und Zhoujun Li. „Open Domain Dialogue Generation with Latent Images“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 16 (18.05.2021): 14239–47. http://dx.doi.org/10.1609/aaai.v35i16.17675.
Der volle Inhalt der QuelleZhang, Zhengkun, Xiaojun Meng, Yasheng Wang, Xin Jiang, Qun Liu und Zhenglu Yang. „UniMS: A Unified Framework for Multimodal Summarization with Knowledge Distillation“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 11757–64. http://dx.doi.org/10.1609/aaai.v36i10.21431.
Der volle Inhalt der QuelleCallens, Johan. „Staging the Televised (Nation)“. Theatre Research International 28, Nr. 1 (17.02.2003): 61–78. http://dx.doi.org/10.1017/s0307883303000154.
Der volle Inhalt der QuelleSaddiqa, Ayesha, Fatima Sajid Chauhan und Adeen Asif. „Coke Studio: Adaptation of Folk Songs for Bridging Cultural and Generation Gap“. Global Social Sciences Review IX, Nr. I (30.03.2024): 145–57. http://dx.doi.org/10.31703/gssr.2024(ix-i).13.
Der volle Inhalt der QuelleUrzha, Anastasia V. „The Foregrounding Function of Praesens Historicum in Russian Translated Adventure Narratives (20th Century)“. Slovene 5, Nr. 1 (2016): 226–48. http://dx.doi.org/10.31168/2305-6754.2016.5.1.9.
Der volle Inhalt der QuelleFedorenko, Svitlana V., und Kateryna B. Sheremeta. „U.S. UNIVERSITY WEBSITES AS SPECIFIC MULTIMODAL TEXTS“. Alfred Nobel University Journal of Philology 2, Nr. 26/2 (26.12.2023): 9–26. http://dx.doi.org/10.32342/2523-4463-2023-2-26/2-1.
Der volle Inhalt der QuelleShaikhlislamova, E. R., L. K. Karimova, S. A. Gallyamova, F. A. Urmantseva, D. R. Iskhakova und R. A. Alakaeva. „Grounding of using treatment-and-rehabilitation complex for patients with occupational lumbosacral radiculopathy“. Perm Medical Journal 35, Nr. 2 (15.04.2018): 85–92. http://dx.doi.org/10.17816/pmj35285-92.
Der volle Inhalt der QuelleKoliushko, D. G., S. S. Rudenko und A. N. Saliba. „Method of integro-differential equations for interpreting the results of vertical electrical sounding of the soil“. Electrical Engineering & Electromechanics, Nr. 5 (18.10.2021): 67–70. http://dx.doi.org/10.20998/2074-272x.2021.5.09.
Der volle Inhalt der QuelleШКАРБАН, Інна. „LINGUISTIC ASPECT OF MODALITY IN MODERN MATH DISCOURSE IN ENGLISH“. Проблеми гуманітарних наук. Серія Філологія, Nr. 49 (08.06.2022): 231–36. http://dx.doi.org/10.24919/2522-4565.2022.49.33.
Der volle Inhalt der QuelleHuang, Jianqiang, Yu Qin, Jiaxin Qi, Qianru Sun und Hanwang Zhang. „Deconfounded Visual Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 1 (28.06.2022): 998–1006. http://dx.doi.org/10.1609/aaai.v36i1.19983.
Der volle Inhalt der QuelleKhalil, Esam N. „Grounding in Text Structure“. Australian Journal of Linguistics 22, Nr. 2 (Oktober 2002): 173–90. http://dx.doi.org/10.1080/07268600120122599.
Der volle Inhalt der QuelleDr. Bamadeb Mishra, Ananya Mishra, Dr Rabindra Kumar Swain,. „Moderating effect of CSR on the Direction and Strength of the Relationship between Corporate Governance Mechanism and Integrated Reporting Quality: An Evidence from India“. European Economic Letters (EEL) 14, Nr. 1 (13.03.2024): 1395–411. http://dx.doi.org/10.52783/eel.v14i1.1195.
Der volle Inhalt der QuelleDong, Wenjian, Mayu Otani, Noa Garcia, Yuta Nakashima und Chenhui Chu. „Cross-Lingual Visual Grounding“. IEEE Access 9 (2021): 349–58. http://dx.doi.org/10.1109/access.2020.3046719.
Der volle Inhalt der QuelleJiang, Wenhui, Yibo Cheng, Linxin Liu, Yuming Fang, Yuxin Peng und Yang Liu. „Comprehensive Visual Grounding for Video Description“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 3 (24.03.2024): 2552–60. http://dx.doi.org/10.1609/aaai.v38i3.28032.
Der volle Inhalt der QuelleLiu, Yongfei, Bo Wan, Xiaodan Zhu und Xuming He. „Learning Cross-Modal Context Graph for Visual Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11645–52. http://dx.doi.org/10.1609/aaai.v34i07.6833.
Der volle Inhalt der QuelleWang, Ning, Jiajun Deng und Mingbo Jia. „Cycle-Consistency Learning for Captioning and Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 6 (24.03.2024): 5535–43. http://dx.doi.org/10.1609/aaai.v38i6.28363.
Der volle Inhalt der QuelleTomaškovičová, Soňa, Thomas Ingeman-Nielsen, Anders V. Christiansen, Inooraq Brandt, Torleif Dahlin und Bo Elberling. „Effect of electrode shape on grounding resistances — Part 2: Experimental results and cryospheric monitoring“. GEOPHYSICS 81, Nr. 1 (01.01.2016): WA169—WA182. http://dx.doi.org/10.1190/geo2015-0148.1.
Der volle Inhalt der QuelleShridhar, Mohit, Dixant Mittal und David Hsu. „INGRESS: Interactive visual grounding of referring expressions“. International Journal of Robotics Research 39, Nr. 2-3 (02.01.2020): 217–32. http://dx.doi.org/10.1177/0278364919897133.
Der volle Inhalt der QuelleBaroni, Marco. „Grounding Distributional Semantics in the Visual World“. Language and Linguistics Compass 10, Nr. 1 (08.12.2015): 3–13. http://dx.doi.org/10.1111/lnc3.12170.
Der volle Inhalt der QuelleSui, Zezhou, Mian Zhou, Zhikun Feng, Angelos Stefanidis und Nan Jiang. „Language-Led Visual Grounding and Future Possibilities“. Electronics 12, Nr. 14 (20.07.2023): 3142. http://dx.doi.org/10.3390/electronics12143142.
Der volle Inhalt der QuelleZhang, Junqian, Long Tu, Yakun Zhang, Liang Xie, Minpeng Xu, Dong Ming, Ye Yan und Erwei Yin. „An Accuracy Enhanced Vision Language Grounding Method Fused with Gaze Intention“. Electronics 12, Nr. 24 (14.12.2023): 5007. http://dx.doi.org/10.3390/electronics12245007.
Der volle Inhalt der QuelleZohourianshahzadi, Zanyar, und Jugal K. Kalita. „Neural Twins Talk and Alternative Calculations“. International Journal of Semantic Computing 15, Nr. 01 (März 2021): 93–116. http://dx.doi.org/10.1142/s1793351x21500045.
Der volle Inhalt der QuelleZeldovich, G. M. „The mutual similarity of meanings and structures in a literary text“. Slovo.ru: Baltic accent 11, Nr. 1 (2020): 87–100. http://dx.doi.org/10.5922/2225-5346-2020-1-5.
Der volle Inhalt der QuelleOu, Jiefu, Adithya Pratapa, Rishubh Gupta und Teruko Mitamura. „Hierarchical Event Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13437–45. http://dx.doi.org/10.1609/aaai.v37i11.26576.
Der volle Inhalt der QuelleGall-Maynard, David. „The End Is Always Near: Evaluating the Influence of Premillennial Apocalyptic Rhetoric on Evangelical Christian Attitudes toward Climate Change Discourse“. CEA Critic 85, Nr. 3 (November 2023): 233–40. http://dx.doi.org/10.1353/cea.2023.a912099.
Der volle Inhalt der QuelleIngeman-Nielsen, Thomas, Soňa Tomaškovičová und Torleif Dahlin. „Effect of electrode shape on grounding resistances — Part 1: The focus-one protocol“. GEOPHYSICS 81, Nr. 1 (01.01.2016): WA159—WA167. http://dx.doi.org/10.1190/geo2015-0484.1.
Der volle Inhalt der Quelle