Littérature scientifique sur le sujet « Explainable Image Captioning (XIC) »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Explainable Image Captioning (XIC) ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Explainable Image Captioning (XIC)"
Han, Seung-Ho, Min-Su Kwon et Ho-Jin Choi. « EXplainable AI (XAI) approach to image captioning ». Journal of Engineering 2020, no 13 (1 juillet 2020) : 589–94. http://dx.doi.org/10.1049/joe.2019.1217.
Texte intégralFei, Zhengcong, Mingyuan Fan, Li Zhu, Junshi Huang, Xiaoming Wei et Xiaolin Wei. « Uncertainty-Aware Image Captioning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 1 (26 juin 2023) : 614–22. http://dx.doi.org/10.1609/aaai.v37i1.25137.
Texte intégralLiu, Haixia, et Tim Brailsford. « Reproducing “Show, Attend and Tell : Neural Image Caption Generation with Visual Attention” ». Journal of Physics : Conference Series 2589, no 1 (1 septembre 2023) : 012012. http://dx.doi.org/10.1088/1742-6596/2589/1/012012.
Texte intégralBiswas, Rajarshi, Michael Barz et Daniel Sonntag. « Towards Explanatory Interactive Image Captioning Using Top-Down and Bottom-Up Features, Beam Search and Re-ranking ». KI - Künstliche Intelligenz 34, no 4 (8 juillet 2020) : 571–84. http://dx.doi.org/10.1007/s13218-020-00679-2.
Texte intégralGhosh, Swarnendu, Teresa Gonçalves et Nibaran Das. « Im2Graph : A Weakly Supervised Approach for Generating Holistic Scene Graphs from Regional Dependencies ». Future Internet 15, no 2 (10 février 2023) : 70. http://dx.doi.org/10.3390/fi15020070.
Texte intégralNaresh, Naresh, Gunikhan .. et V. Balaji. « AMR-XAI-DWT : Age-Related Macular Regenerated Classification using X-AI with Dual Tree CWT ». Fusion : Practice and Applications 15, no 2 (2024) : 17–35. http://dx.doi.org/10.54216/fpa.150202.
Texte intégralYong, Gunwoo, Meiyin Liu et SangHyun Lee. « Explainable Image Captioning to Identify Ergonomic Problems and Solutions for Construction Workers ». Journal of Computing in Civil Engineering 38, no 4 (juillet 2024). http://dx.doi.org/10.1061/jccee5.cpeng-5744.
Texte intégralPan, Yingwei, Yehao Li, Ting Yao et Tao Mei. « Bottom-up and Top-down Object Inference Networks for Image Captioning ». ACM Transactions on Multimedia Computing, Communications, and Applications, 19 janvier 2023. http://dx.doi.org/10.1145/3580366.
Texte intégralIlinykh, Nikolai, et Simon Dobnik. « What Does a Language-And-Vision Transformer See : The Impact of Semantic Information on Visual Representations ». Frontiers in Artificial Intelligence 4 (3 décembre 2021). http://dx.doi.org/10.3389/frai.2021.767971.
Texte intégralThèses sur le sujet "Explainable Image Captioning (XIC)"
Elguendouze, Sofiane. « Explainable Artificial Intelligence approaches for Image Captioning ». Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
Texte intégralThe rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
Chapitres de livres sur le sujet "Explainable Image Captioning (XIC)"
Beddiar, Romaissa, et Mourad Oussalah. « Explainability in medical image captioning ». Dans Explainable Deep Learning AI, 239–61. Elsevier, 2023. http://dx.doi.org/10.1016/b978-0-32-396098-4.00018-1.
Texte intégralActes de conférences sur le sujet "Explainable Image Captioning (XIC)"
Tseng, Ching-Shan, Ying-Jia Lin et Hung-Yu Kao. « Relation-Aware Image Captioning for Explainable Visual Question Answering ». Dans 2022 International Conference on Technologies and Applications of Artificial Intelligence (TAAI). IEEE, 2022. http://dx.doi.org/10.1109/taai57707.2022.00035.
Texte intégralElguendouze, Sofiane, Marcilio C. P. de Souto, Adel Hafiane et Anais Halftermeyer. « Towards Explainable Deep Learning for Image Captioning through Representation Space Perturbation ». Dans 2022 International Joint Conference on Neural Networks (IJCNN). IEEE, 2022. http://dx.doi.org/10.1109/ijcnn55064.2022.9892275.
Texte intégral