Zeitschriftenartikel zum Thema „Multimodal data processing“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Multimodal data processing" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Kyselova, A. H., G. D. Kiselov, A. A. Serhyeyev und A. V. Shalaginov. „Processing input data in multimodal applications“. Electronics and Communications 16, Nr. 2 (28.03.2011): 86–92. http://dx.doi.org/10.20535/2312-1807.2011.16.2.268253.
Der volle Inhalt der QuelleBoyko, Nataliya. „Models and Algorithms for Multimodal Data Processing“. WSEAS TRANSACTIONS ON INFORMATION SCIENCE AND APPLICATIONS 20 (14.03.2023): 87–97. http://dx.doi.org/10.37394/23209.2023.20.11.
Der volle Inhalt der QuelleParsons, Aaron D., Stephen W. T. Price, Nicola Wadeson, Mark Basham, Andrew M. Beale, Alun W. Ashton, J. Frederick W. Mosselmans und Paul D. Quinn. „Automatic processing of multimodal tomography datasets“. Journal of Synchrotron Radiation 24, Nr. 1 (01.01.2017): 248–56. http://dx.doi.org/10.1107/s1600577516017756.
Der volle Inhalt der QuelleQi, Qingfu, Liyuan Lin und Rui Zhang. „Feature Extraction Network with Attention Mechanism for Data Enhancement and Recombination Fusion for Multimodal Sentiment Analysis“. Information 12, Nr. 9 (24.08.2021): 342. http://dx.doi.org/10.3390/info12090342.
Der volle Inhalt der QuelleChen, Mujun. „Automatic Image Processing Algorithm for Light Environment Optimization Based on Multimodal Neural Network Model“. Computational Intelligence and Neuroscience 2022 (03.06.2022): 1–12. http://dx.doi.org/10.1155/2022/5156532.
Der volle Inhalt der QuelleBASYSTIUK, Oleh, und Nataliia MELNYKOVA. „MULTIMODAL SPEECH RECOGNITION BASED ON AUDIO AND TEXT DATA“. Herald of Khmelnytskyi National University. Technical sciences 313, Nr. 5 (27.10.2022): 22–25. http://dx.doi.org/10.31891/2307-5732-2022-313-5-22-25.
Der volle Inhalt der QuelleBasystiuk, Oleh, und Nataliya Melnykova. „Development of the Multimodal Handling Interface Based on Google API“. Computer Design Systems. Theory and Practice 6, Nr. 1 (2024): 216–23. http://dx.doi.org/10.23939/cds2024.01.216.
Der volle Inhalt der QuelleSulema, Yevgeniya. „MULTIMODAL DATA PROCESSING BASED ON ALGEBRAIC SYSTEM OF AGGREGATES RELATIONS“. Radio Electronics, Computer Science, Control, Nr. 1 (15.05.2020): 169–80. http://dx.doi.org/10.15588/1607-3274-2020-1-17.
Der volle Inhalt der QuelleRen, Jinchang, Junwei Han und Mauro Dalla Mura. „Special issue on multimodal data fusion for multidimensional signal processing“. Multidimensional Systems and Signal Processing 27, Nr. 4 (08.08.2016): 801–5. http://dx.doi.org/10.1007/s11045-016-0441-0.
Der volle Inhalt der QuelleChen, Shu-Ching. „Embracing Multimodal Data in Multimedia Data Analysis“. IEEE MultiMedia 28, Nr. 3 (01.07.2021): 5–7. http://dx.doi.org/10.1109/mmul.2021.3104911.
Der volle Inhalt der QuellePenia, Oleksandr, und Yevgeniya Sulema. „ЗАСТОСУВАННЯ ГЛИБОКИХ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ ДЛЯ КЛАСИФІКАЦІЇ МУЛЬТИМОДАЛЬНИХ ДАНИХ“. System technologies 6, Nr. 149 (01.04.2024): 11–22. http://dx.doi.org/10.34185/1562-9945-6-149-2023-02.
Der volle Inhalt der QuellePester, Andreas, Yevgeniya Sulema, Ivan Dychka und Olga Sulema. „Temporal Multimodal Data-Processing Algorithms Based on Algebraic System of Aggregates“. Algorithms 16, Nr. 4 (29.03.2023): 186. http://dx.doi.org/10.3390/a16040186.
Der volle Inhalt der QuellePing, Zou, und Yueyan Liu. „Classification and Visual Design Analysis of Network Expression Based on Big Data Multimodal Intelligence Technology“. Discrete Dynamics in Nature and Society 2022 (20.04.2022): 1–7. http://dx.doi.org/10.1155/2022/7542606.
Der volle Inhalt der QuelleMingyu, Ji, Zhou Jiawei und Wei Ning. „AFR-BERT: Attention-based mechanism feature relevance fusion multimodal sentiment analysis model“. PLOS ONE 17, Nr. 9 (09.09.2022): e0273936. http://dx.doi.org/10.1371/journal.pone.0273936.
Der volle Inhalt der QuelleSohrab, Fahad, Jenni Raitoharju, Alexandros Iosifidis und Moncef Gabbouj. „Multimodal subspace support vector data description“. Pattern Recognition 110 (Februar 2021): 107648. http://dx.doi.org/10.1016/j.patcog.2020.107648.
Der volle Inhalt der QuelleKuhnke, Philipp, Markus Kiefer und Gesa Hartwigsen. „Task-Dependent Functional and Effective Connectivity during Conceptual Processing“. Cerebral Cortex 31, Nr. 7 (03.03.2021): 3475–93. http://dx.doi.org/10.1093/cercor/bhab026.
Der volle Inhalt der QuelleBoyko, Nataliya. „Tools for Implementing the Models and Algorithms for Processing Multimodal Data“. Computer Science and Information Technology 11, Nr. 1 (April 2023): 1–10. http://dx.doi.org/10.13189/csit.2023.110101.
Der volle Inhalt der QuelleBarros, Marcel, Andressa Pinto, Andres Monroy, Felipe Moreno, Jefferson Coelho, Aldomar Pietro Silva, Caio Fabricio Deberaldini Netto et al. „Early Detection of Extreme Storm Tide Events Using Multimodal Data Processing“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 20 (24.03.2024): 21923–31. http://dx.doi.org/10.1609/aaai.v38i20.30194.
Der volle Inhalt der QuelleGuo, Zhixin, Chaoyang Wang, Jianping Zhou, Guanjie Zheng, Xinbing Wang und Chenghu Zhou. „GeoKnowledgeFusion: A Platform for Multimodal Data Compilation from Geoscience Literature“. Remote Sensing 16, Nr. 9 (23.04.2024): 1484. http://dx.doi.org/10.3390/rs16091484.
Der volle Inhalt der QuellePawłowski, Maciej, Anna Wróblewska und Sylwia Sysko-Romańczuk. „Effective Techniques for Multimodal Data Fusion: A Comparative Analysis“. Sensors 23, Nr. 5 (21.02.2023): 2381. http://dx.doi.org/10.3390/s23052381.
Der volle Inhalt der QuelleFijalkow, Inbar, Elad Heiman und Hagit Messer. „Parameter Estimation from Heterogeneous/Multimodal Data Sets“. IEEE Signal Processing Letters 23, Nr. 3 (März 2016): 390–93. http://dx.doi.org/10.1109/lsp.2016.2523886.
Der volle Inhalt der QuelleKatz, Ori, Ronen Talmon, Yu-Lun Lo und Hau-Tieng Wu. „Alternating diffusion maps for multimodal data fusion“. Information Fusion 45 (Januar 2019): 346–60. http://dx.doi.org/10.1016/j.inffus.2018.01.007.
Der volle Inhalt der QuelleWu, Laiyun, Jee Eun Kang, Younshik Chung und Alexander Nikolaev. „Monitoring Multimodal Travel Environment Using Automated Fare Collection Data: Data Processing and Reliability Analysis“. Journal of Big Data Analytics in Transportation 1, Nr. 2-3 (25.11.2019): 123–46. http://dx.doi.org/10.1007/s42421-019-00012-w.
Der volle Inhalt der QuelleKulvinder Singh, Et al. „Enhancing Multimodal Information Retrieval Through Integrating Data Mining and Deep Learning Techniques“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 9 (30.10.2023): 560–69. http://dx.doi.org/10.17762/ijritcc.v11i9.8844.
Der volle Inhalt der QuelleEngebretsen, Martin. „From Decoding a Graph to Processing a Multimodal Message“. Nordicom Review 41, Nr. 1 (18.02.2020): 33–50. http://dx.doi.org/10.2478/nor-2020-0004.
Der volle Inhalt der QuelleBergamaschi, Antoine, Kadda Medjoubi, Cédric Messaoudi, Sergio Marco und Andrea Somogyi. „MMX-I: data-processing software for multimodal X-ray imaging and tomography“. Journal of Synchrotron Radiation 23, Nr. 3 (12.04.2016): 783–94. http://dx.doi.org/10.1107/s1600577516003052.
Der volle Inhalt der QuelleKotus, J., K. Łopatka, A. Czyżewski und G. Bogdanis. „Processing of acoustical data in a multimodal bank operating room surveillance system“. Multimedia Tools and Applications 75, Nr. 17 (17.10.2014): 10787–805. http://dx.doi.org/10.1007/s11042-014-2264-z.
Der volle Inhalt der QuelleKawadkar, Pankaj, B.Rebecca und Puppala Krupa Sagar. „Clustering Techniques for Person Authentication from Online Intelligence Data Inspired by Nature“. International Journal of Scientific Methods in Engineering and Management 01, Nr. 04 (2023): 31–38. http://dx.doi.org/10.58599/ijsmem.2023.1404.
Der volle Inhalt der QuelleZhang, Zhenchao, George Vosselman, Markus Gerke, Claudio Persello, Devis Tuia und Michael Ying Yang. „Detecting Building Changes between Airborne Laser Scanning and Photogrammetric Data“. Remote Sensing 11, Nr. 20 (18.10.2019): 2417. http://dx.doi.org/10.3390/rs11202417.
Der volle Inhalt der QuelleDmytro, Rvach, und Yevgeniya Sulema. „Mulsemedia data consolidation method“. System technologies 6, Nr. 143 (13.11.2023): 69–79. http://dx.doi.org/10.34185/1562-9945-6-143-2022-06.
Der volle Inhalt der QuelleIvanko, Denis, Alexey Karpov, Dmitrii Fedotov, Irina Kipyatkova, Dmitry Ryumin, Dmitriy Ivanko, Wolfgang Minker und Milos Zelezny. „Multimodal speech recognition: increasing accuracy using high speed video data“. Journal on Multimodal User Interfaces 12, Nr. 4 (01.08.2018): 319–28. http://dx.doi.org/10.1007/s12193-018-0267-1.
Der volle Inhalt der QuelleBauer, Dominik F., Tom Russ, Barbara I. Waldkirch, Christian Tönnes, William P. Segars, Lothar R. Schad, Frank G. Zöllner und Alena-Kathrin Golla. „Generation of annotated multimodal ground truth datasets for abdominal medical image registration“. International Journal of Computer Assisted Radiology and Surgery 16, Nr. 8 (02.05.2021): 1277–85. http://dx.doi.org/10.1007/s11548-021-02372-7.
Der volle Inhalt der QuelleSun, Fanglei, und Zhifeng Diao. „Research on Data Fusion Method Based on Multisource Data Awareness of Internet of Things“. Journal of Sensors 2022 (04.07.2022): 1–10. http://dx.doi.org/10.1155/2022/5001953.
Der volle Inhalt der QuellePaulmann, Silke, Sarah Jessen und Sonja A. Kotz. „Investigating the Multimodal Nature of Human Communication“. Journal of Psychophysiology 23, Nr. 2 (Januar 2009): 63–76. http://dx.doi.org/10.1027/0269-8803.23.2.63.
Der volle Inhalt der QuelleDychka, Ivan A., und Yevgeniya S. Sulema. „Logical Operations in Algebraic System of Aggregates for Multimodal Data Representation and Processing“. Research Bulletin of the National Technical University of Ukraine "Kyiv Politechnic Institute", Nr. 6 (17.12.2018): 44–52. http://dx.doi.org/10.20535/1810-0546.2018.6.151546.
Der volle Inhalt der QuelleRivière, D., D. Geffroy, I. Denghien, N. Souedet und Y. Cointepas. „BrainVISA: an extensible software environment for sharing multimodal neuroimaging data and processing tools“. NeuroImage 47 (Juli 2009): S163. http://dx.doi.org/10.1016/s1053-8119(09)71720-3.
Der volle Inhalt der QuellePamart, A., O. Guillon, S. Faraci, E. Gattet, M. Genevois, J. M. Vallet und L. De Luca. „MULTISPECTRAL PHOTOGRAMMETRIC DATA ACQUISITION AND PROCESSING FORWALL PAINTINGS STUDIES“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2/W3 (23.02.2017): 559–66. http://dx.doi.org/10.5194/isprs-archives-xlii-2-w3-559-2017.
Der volle Inhalt der QuelleCaschera, Maria Chiara, Patrizia Grifoni und Fernando Ferri. „Emotion Classification from Speech and Text in Videos Using a Multimodal Approach“. Multimodal Technologies and Interaction 6, Nr. 4 (12.04.2022): 28. http://dx.doi.org/10.3390/mti6040028.
Der volle Inhalt der QuellePorta, Alberto, Federico Aletti, Frederic Vallais und Giuseppe Baselli. „Multimodal signal processing for the analysis of cardiovascular variability“. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 367, Nr. 1887 (22.10.2008): 391–409. http://dx.doi.org/10.1098/rsta.2008.0229.
Der volle Inhalt der QuelleDecker, Kevin T., und Brett J. Borghetti. „Hyperspectral Point Cloud Projection for the Semantic Segmentation of Multimodal Hyperspectral and Lidar Data with Point Convolution-Based Deep Fusion Neural Networks“. Applied Sciences 13, Nr. 14 (14.07.2023): 8210. http://dx.doi.org/10.3390/app13148210.
Der volle Inhalt der QuelleGoel, Anshika, Saurav Roy, Khushboo Punjabi, Ritwick Mishra, Manjari Tripathi, Deepika Shukla und Pravat K. Mandal. „PRATEEK: Integration of Multimodal Neuroimaging Data to Facilitate Advanced Brain Research“. Journal of Alzheimer's Disease 83, Nr. 1 (31.08.2021): 305–17. http://dx.doi.org/10.3233/jad-210440.
Der volle Inhalt der QuelleMohd Ali, Maimunah, Norhashila Hashim, Samsuzana Abd Aziz und Ola Lasekan. „Utilisation of Deep Learning with Multimodal Data Fusion for Determination of Pineapple Quality Using Thermal Imaging“. Agronomy 13, Nr. 2 (30.01.2023): 401. http://dx.doi.org/10.3390/agronomy13020401.
Der volle Inhalt der QuelleMikhnenko, P. A. „Analysis of Multimodal Data in Project Management: Prospects for Using Machine Learning“. Management Sciences 13, Nr. 4 (03.02.2024): 71–89. http://dx.doi.org/10.26794/2304-022x-2023-13-4-71-89.
Der volle Inhalt der QuelleYu, Ping, Hongwei Zhao, Kun Yang, Hanlin Chen, Xiaozhong Geng, Ming Hu und Hui Yan. „Blockchain-Enabled Joint Resource Allocation for Virtualized Video Service Functions“. Security and Communication Networks 2022 (16.05.2022): 1–16. http://dx.doi.org/10.1155/2022/4349097.
Der volle Inhalt der QuelleNie, Wei-Zhi, Wen-Juan Peng, Xiang-yu Wang, Yi-liang Zhao und Yu-Ting Su. „Multimedia venue semantic modeling based on multimodal data“. Journal of Visual Communication and Image Representation 48 (Oktober 2017): 375–85. http://dx.doi.org/10.1016/j.jvcir.2016.11.015.
Der volle Inhalt der QuelleHaleem, Muhammad Salman, Audrey Ekuban, Alessio Antonini, Silvio Pagliara, Leandro Pecchia und Carlo Allocca. „Deep-Learning-Driven Techniques for Real-Time Multimodal Health and Physical Data Synthesis“. Electronics 12, Nr. 9 (25.04.2023): 1989. http://dx.doi.org/10.3390/electronics12091989.
Der volle Inhalt der QuelleZhao, Jian, Wenhua Dong, Lijuan Shi, Wenqian Qiang, Zhejun Kuang, Dawei Xu und Tianbo An. „Multimodal Feature Fusion Method for Unbalanced Sample Data in Social Network Public Opinion“. Sensors 22, Nr. 15 (25.07.2022): 5528. http://dx.doi.org/10.3390/s22155528.
Der volle Inhalt der QuelleZhang, Yingjie. „The current status and prospects of transformer in multimodality“. Applied and Computational Engineering 11, Nr. 1 (25.09.2023): 224–30. http://dx.doi.org/10.54254/2755-2721/11/20230240.
Der volle Inhalt der QuelleJeong, Dayoung, und Kyungsik Han. „PRECYSE: Predicting Cybersickness using Transformer for Multimodal Time-Series Sensor Data“. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 8, Nr. 2 (13.05.2024): 1–24. http://dx.doi.org/10.1145/3659594.
Der volle Inhalt der QuelleCui, Hang, Liang Hu und Ling Chi. „Advances in Computer-Aided Medical Image Processing“. Applied Sciences 13, Nr. 12 (13.06.2023): 7079. http://dx.doi.org/10.3390/app13127079.
Der volle Inhalt der Quelle