Articles de revues sur le sujet « Multimodal Knowledge Representation »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Multimodal Knowledge Representation ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Azañón, Elena, Luigi Tamè, Angelo Maravita, Sally A. Linkenauger, Elisa R. Ferrè, Ana Tajadura-Jiménez et Matthew R. Longo. « Multimodal Contributions to Body Representation ». Multisensory Research 29, no 6-7 (2016) : 635–61. http://dx.doi.org/10.1163/22134808-00002531.
Texte intégralCoelho, Ana, Paulo Marques, Ricardo Magalhães, Nuno Sousa, José Neves et Victor Alves. « A Knowledge Representation and Reasoning System for Multimodal Neuroimaging Studies ». Inteligencia Artificial 20, no 59 (6 février 2017) : 42. http://dx.doi.org/10.4114/intartif.vol20iss59pp42-52.
Texte intégralBruni, E., N. K. Tran et M. Baroni. « Multimodal Distributional Semantics ». Journal of Artificial Intelligence Research 49 (23 janvier 2014) : 1–47. http://dx.doi.org/10.1613/jair.4135.
Texte intégralToraldo, Maria Laura, Gazi Islam et Gianluigi Mangia. « Modes of Knowing ». Organizational Research Methods 21, no 2 (14 juillet 2016) : 438–65. http://dx.doi.org/10.1177/1094428116657394.
Texte intégralGül, Davut, et Bayram Costu. « To What Extent Do Teachers of Gifted Students Identify Inner and Intermodal Relations in Knowledge Representation ? » Mimbar Sekolah Dasar 8, no 1 (30 avril 2021) : 55–80. http://dx.doi.org/10.53400/mimbar-sd.v8i1.31333.
Texte intégralTomskaya, Maria, et Irina Zaytseva. « MULTIMEDIA REPRESENTATION OF KNOWLEDGE IN ACADEMIC DISCOURSE ». Verbum 8, no 8 (19 janvier 2018) : 129. http://dx.doi.org/10.15388/verb.2017.8.11357.
Texte intégralCholewa, Wojciech, Marcin Amarowicz, Paweł Chrzanowski et Tomasz Rogala. « Development Environment for Diagnostic Multimodal Statement Networks ». Key Engineering Materials 588 (octobre 2013) : 74–83. http://dx.doi.org/10.4028/www.scientific.net/kem.588.74.
Texte intégralPrieto-Velasco, Juan Antonio, et Clara I. López Rodríguez. « Managing graphic information in terminological knowledge bases ». Terminology 15, no 2 (11 novembre 2009) : 179–213. http://dx.doi.org/10.1075/term.15.2.02pri.
Texte intégralLaenen, Katrien, et Marie-Francine Moens. « Learning Explainable Disentangled Representations of E-Commerce Data by Aligning Their Visual and Textual Attributes ». Computers 11, no 12 (10 décembre 2022) : 182. http://dx.doi.org/10.3390/computers11120182.
Texte intégralLi, Jinghua, Runze Liu, Dehui Kong, Shaofan Wang, Lichun Wang, Baocai Yin et Ronghua Gao. « Attentive 3D-Ghost Module for Dynamic Hand Gesture Recognition with Positive Knowledge Transfer ». Computational Intelligence and Neuroscience 2021 (18 novembre 2021) : 1–12. http://dx.doi.org/10.1155/2021/5044916.
Texte intégralHocaoǧlu, Cem, et Arthur C. Sanderson. « Multimodal Function Optimization Using Minimal Representation Size Clustering and Its Application to Planning Multipaths ». Evolutionary Computation 5, no 1 (mars 1997) : 81–104. http://dx.doi.org/10.1162/evco.1997.5.1.81.
Texte intégralJaiswal, Mimansa, et Emily Mower Provost. « Privacy Enhanced Multimodal Neural Representations for Emotion Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 7985–93. http://dx.doi.org/10.1609/aaai.v34i05.6307.
Texte intégralChu, Hanlu, Haien Zeng, Hanjiang Lai et Yong Tang. « Efficient modal-aware feature learning with application in multimodal hashing ». Intelligent Data Analysis 26, no 2 (14 mars 2022) : 345–60. http://dx.doi.org/10.3233/ida-215780.
Texte intégralHe, Yang, Ling Tian, Lizong Zhang et Xi Zeng. « Knowledge Graph Representation Fusion Framework for Fine-Grained Object Recognition in Smart Cities ». Complexity 2021 (13 juillet 2021) : 1–9. http://dx.doi.org/10.1155/2021/8041029.
Texte intégralFeng, Debing, et Xiangxiang Wu. « Coronavirus, Demons, and War : Visual and Multimodal Metaphor in Chinese Public Service Advertisements ». SAGE Open 12, no 1 (janvier 2022) : 215824402210788. http://dx.doi.org/10.1177/21582440221078855.
Texte intégralZhong, Dong, Yi-An Zhu, Lanqing Wang, Junhua Duan et Jiaxuan He. « A Cognition Knowledge Representation Model Based on Multidimensional Heterogeneous Data ». Complexity 2020 (28 décembre 2020) : 1–17. http://dx.doi.org/10.1155/2020/8812459.
Texte intégralNguyen, Nhu Van, Alain Boucher et Jean-Marc Ogier. « Keyword Visual Representation for Image Retrieval and Image Annotation ». International Journal of Pattern Recognition and Artificial Intelligence 29, no 06 (12 août 2015) : 1555010. http://dx.doi.org/10.1142/s0218001415550101.
Texte intégralHöllerer, Markus A., Dennis Jancsary et Maria Grafström. « ‘A Picture is Worth a Thousand Words’ : Multimodal Sensemaking of the Global Financial Crisis ». Organization Studies 39, no 5-6 (7 avril 2018) : 617–44. http://dx.doi.org/10.1177/0170840618765019.
Texte intégralLi, Mimi, et Julie Dell-Jones. « The same topic, different products : Pre-/in-service teachers’ linguistic knowledge representation in a multimodal project ». Computers and Composition 67 (mars 2023) : 102754. http://dx.doi.org/10.1016/j.compcom.2023.102754.
Texte intégralAhmad, Arinal Haqqiyah, Bukhari Daud et Dohra Fitrisia. « The analysis of best-seller fantasy novel covers in 2019 through multimodal lens ». English Education Journal 12, no 1 (31 janvier 2021) : 1–18. http://dx.doi.org/10.24815/eej.v12i1.19140.
Texte intégralMasita, Ella. « The Representation of Indonesian National Identity in English Textbook ». Indonesian Research Journal in Education |IRJE| 5, no 1 (17 juin 2021) : 226–44. http://dx.doi.org/10.22437/irje.v5i1.10599.
Texte intégralZhang, Jing, Meng Chen, Jie Liu, Dongdong Peng, Zong Dai, Xiaoyong Zou et Zhanchao Li. « A Knowledge-Graph-Based Multimodal Deep Learning Framework for Identifying Drug–Drug Interactions ». Molecules 28, no 3 (3 février 2023) : 1490. http://dx.doi.org/10.3390/molecules28031490.
Texte intégralLi, Ke, et Sang-Bing Tsai. « An Empirical Study on the Countermeasures of Implementing 5G Multimedia Network Technology in College Education ». Mobile Information Systems 2021 (13 octobre 2021) : 1–14. http://dx.doi.org/10.1155/2021/2547648.
Texte intégralHurdley, Rachel, et Bella Dicks. « In-between practice : working in the ‘thirdspace’ of sensory and multimodal methodology ». Qualitative Research 11, no 3 (juin 2011) : 277–92. http://dx.doi.org/10.1177/1468794111399837.
Texte intégralReyes-Torres, Agustín, Matilde Portalés-Raga et Clara Torres-Mañá. « The potential of sound picturebooks as multimodal narratives ». AILA Review 34, no 2 (31 décembre 2021) : 300–324. http://dx.doi.org/10.1075/aila.21006.rey.
Texte intégralKorolainen, Kari Tapio. « The Handwork of Folkloristic-Ethnological Knowledge ». Ethnologia Fennica 44 (31 décembre 2017) : 35–51. http://dx.doi.org/10.23991/ef.v44i0.59693.
Texte intégralEllis, Elizabeth Marrkilyi, Jennifer Green et Inge Kral. « Family in mind ». Research on Children and Social Interaction 1, no 2 (18 décembre 2017) : 164–98. http://dx.doi.org/10.1558/rcsi.28442.
Texte intégralRayón Rumayor, Laura, Ana María De las Heras Cuenca et José Hernández Ortega. « Didáctica universitaria híbrida : identidad digital creativa y multimodalidad ». Altre Modernità, no 27 (30 mai 2022) : 48–64. http://dx.doi.org/10.54103/2035-7680/17876.
Texte intégralKirova, Anna, Christine Massing, Larry Prochner et Ailie Cleghorn. « Shaping the “Habits of mind” of diverse learners in early childhood teacher education programs through powerpoint : An illustrative case ». Journal of Pedagogy 7, no 1 (1 juin 2016) : 59–78. http://dx.doi.org/10.1515/jped-2016-0004.
Texte intégralLiao, Danlu. « Construction of Knowledge Graph English Online Homework Evaluation System Based on Multimodal Neural Network Feature Extraction ». Computational Intelligence and Neuroscience 2022 (13 mai 2022) : 1–12. http://dx.doi.org/10.1155/2022/7941414.
Texte intégralDourlens, Sébastien, et Amar Ramdane-Cherif. « Cognitive Memory for Semantic Agents Architecture in Robotic Interaction ». International Journal of Cognitive Informatics and Natural Intelligence 5, no 1 (janvier 2011) : 43–58. http://dx.doi.org/10.4018/jcini.2011010103.
Texte intégralSun, Guofei, Yongkang Wong, Mohan S. Kankanhalli, Xiangdong Li et Weidong Geng. « Enhanced 3D Shape Reconstruction With Knowledge Graph of Category Concept ». ACM Transactions on Multimedia Computing, Communications, and Applications 18, no 3 (31 août 2022) : 1–20. http://dx.doi.org/10.1145/3491224.
Texte intégralDavis, Brian. « Instrumentalizing the book : Anne Carson’s Nox and books as archives ». Frontiers of Narrative Studies 7, no 1 (1 juillet 2021) : 84–109. http://dx.doi.org/10.1515/fns-2021-0005.
Texte intégralBOURBAKIS, NIKOLAOS, et MICHAEL MILLS. « CONVERTING NATURAL LANGUAGE TEXT SENTENCES INTO SPN REPRESENTATIONS FOR ASSOCIATING EVENTS ». International Journal of Semantic Computing 06, no 03 (septembre 2012) : 353–70. http://dx.doi.org/10.1142/s1793351x12500067.
Texte intégralSugiura, Motoaki, Yuko Sassa, Jobu Watanabe, Yuko Akitsuki, Yasuhiro Maeda, Yoshihiko Matsue et Ryuta Kawashima. « Anatomical Segregation of Representations of Personally Familiar and Famous People in the Temporal and Parietal Cortices ». Journal of Cognitive Neuroscience 21, no 10 (octobre 2009) : 1855–68. http://dx.doi.org/10.1162/jocn.2008.21150.
Texte intégralKalantzis, Mary, et Bill Cope. « From Gutenberg to the Internet : How Digitisation Transforms Culture and Knowledge ». Logos 21, no 1-2 (2010) : 12–39. http://dx.doi.org/10.1163/095796510x546887.
Texte intégralKryssanov, Victor V., Shizuka Kumokawa, Igor Goncharenko et Hitoshi Ogawa. « Perceiving the Social ». International Journal of Software Science and Computational Intelligence 2, no 1 (janvier 2010) : 24–37. http://dx.doi.org/10.4018/jssci.2010101902.
Texte intégralPrado, Jan Alyne Barbosa. « Formal and Multimodal Approach to Hard News as Genre, Structure and Metalanguage in Social and Digital Media Contexts. The Example of Twitter ». Bakhtiniana : Revista de Estudos do Discurso 17, no 4 (octobre 2022) : 163–93. http://dx.doi.org/10.1590/2176-4573e57554.
Texte intégralYuan, Hui, Yuanyuan Tang, Wei Xu et Raymond Yiu Keung Lau. « Exploring the influence of multimodal social media data on stock performance : an empirical perspective and analysis ». Internet Research 31, no 3 (12 janvier 2021) : 871–91. http://dx.doi.org/10.1108/intr-11-2019-0461.
Texte intégralKotis, Konstantinos, Sotiris Angelis, Efthymia Moraitou, Vasilis Kopsachilis, Ermioni-Eirini Papadopoulou, Nikolaos Soulakellis et Michail Vaitis. « A KG-Based Integrated UAV Approach for Engineering Semantic Trajectories in the Cultural Heritage Documentation Domain ». Remote Sensing 15, no 3 (31 janvier 2023) : 821. http://dx.doi.org/10.3390/rs15030821.
Texte intégralArend, Johannes M., Melissa Ramírez, Heinrich R. Liesefeld et Christoph Pӧrschmann. « Do near-field cues enhance the plausibility of non-individual binaural rendering in a dynamic multimodal virtual acoustic scene ? » Acta Acustica 5 (2021) : 55. http://dx.doi.org/10.1051/aacus/2021048.
Texte intégralPazzaglia, Mariella, et Marta Zantedeschi. « Plasticity and Awareness of Bodily Distortion ». Neural Plasticity 2016 (2016) : 1–7. http://dx.doi.org/10.1155/2016/9834340.
Texte intégralSunkara, Adhira, Gregory C. DeAngelis et Dora E. Angelaki. « Joint representation of translational and rotational components of optic flow in parietal cortex ». Proceedings of the National Academy of Sciences 113, no 18 (19 avril 2016) : 5077–82. http://dx.doi.org/10.1073/pnas.1604818113.
Texte intégralHnini, Ghizlane, Jamal Riffi, Mohamed Adnane Mahraz, Ali Yahyaouy et Hamid Tairi. « MMPC-RF : A Deep Multimodal Feature-Level Fusion Architecture for Hybrid Spam E-mail Detection ». Applied Sciences 11, no 24 (16 décembre 2021) : 11968. http://dx.doi.org/10.3390/app112411968.
Texte intégralKendrick, Maureen, Elizabeth Namazzi, Ava Becker-Zayas et Esther Nancy Tibwamulala. « Closing the HIV and AIDS “Information Gap” Between Children and Parents : An Exploration of Makerspaces in a Ugandan Primary School ». Education Sciences 10, no 8 (23 juillet 2020) : 193. http://dx.doi.org/10.3390/educsci10080193.
Texte intégralMiao, Haotian, Yifei Zhang, Daling Wang et Shi Feng. « Multi-Output Learning Based on Multimodal GCN and Co-Attention for Image Aesthetics and Emotion Analysis ». Mathematics 9, no 12 (20 juin 2021) : 1437. http://dx.doi.org/10.3390/math9121437.
Texte intégralDe Paepe, Annick, Valéry Legrain et Geert Crombez. « Visual stimuli within peripersonal space prioritize pain ». Seeing and Perceiving 25 (2012) : 88. http://dx.doi.org/10.1163/187847612x647072.
Texte intégralBălan, Oana, Alin Moldoveanu, Florica Moldoveanu, Hunor Nagy, György Wersényi et Rúnar Unnórsson. « Improving the Audio Game–Playing Performances of People with Visual Impairments through Multimodal Training ». Journal of Visual Impairment & ; Blindness 111, no 2 (mars 2017) : 148–64. http://dx.doi.org/10.1177/0145482x1711100206.
Texte intégralVasiliu, Laurentiu, Keith Cortis, Ross McDermott, Aphra Kerr, Arne Peters, Marc Hesse, Jens Hagemeyer et al. « CASIE – Computing affect and social intelligence for healthcare in an ethical and trustworthy manner ». Paladyn, Journal of Behavioral Robotics 12, no 1 (1 janvier 2021) : 437–53. http://dx.doi.org/10.1515/pjbr-2021-0026.
Texte intégralKearney, Matthew, Marta Bornstein, Marieme Fall, Roch Nianogo, Deborah Glik et Philip Massey. « Cross-sectional study of COVID-19 knowledge, beliefs and prevention behaviours among adults in Senegal ». BMJ Open 12, no 5 (mai 2022) : e057914. http://dx.doi.org/10.1136/bmjopen-2021-057914.
Texte intégral