Добірка наукової літератури з теми "Multi-modal Machine Learning"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Multi-modal Machine Learning".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Multi-modal Machine Learning"
Liang, Haotian, and Zhanqing Wang. "Hierarchical Attention Networks for Multimodal Machine Learning." Journal of Physics: Conference Series 2218, no. 1 (March 1, 2022): 012020. http://dx.doi.org/10.1088/1742-6596/2218/1/012020.
Повний текст джерелаNachiappan, Balusamy, N. Rajkumar, C. Viji, and Mohanraj A. "Artificial and Deceitful Faces Detection Using Machine Learning." Salud, Ciencia y Tecnología - Serie de Conferencias 3 (March 11, 2024): 611. http://dx.doi.org/10.56294/sctconf2024611.
Повний текст джерелаLiu, Ang, Tianying Lin, Hailong Han, Xiaopei Zhang, Ze Chen, Fuwan Gan, Haibin Lv, and Xiaoping Liu. "Analyzing modal power in multi-mode waveguide via machine learning." Optics Express 26, no. 17 (August 10, 2018): 22100. http://dx.doi.org/10.1364/oe.26.022100.
Повний текст джерелаLiu, Huaping, Jing Fang, Xinying Xu, and Fuchun Sun. "Surface Material Recognition Using Active Multi-modal Extreme Learning Machine." Cognitive Computation 10, no. 6 (July 4, 2018): 937–50. http://dx.doi.org/10.1007/s12559-018-9571-z.
Повний текст джерелаWei, Jie, Huaping Liu, Gaowei Yan, and Fuchun Sun. "Robotic grasping recognition using multi-modal deep extreme learning machine." Multidimensional Systems and Signal Processing 28, no. 3 (March 3, 2016): 817–33. http://dx.doi.org/10.1007/s11045-016-0389-0.
Повний текст джерелаA, Mr Balaji. "Extracting Audio from Image Using Machine Learning." INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, no. 04 (April 24, 2024): 1–5. http://dx.doi.org/10.55041/ijsrem31532.
Повний текст джерелаAsim, Yousra, Basit Raza, Ahmad Kamran Malik, Saima Rathore, Lal Hussain, and Mohammad Aksam Iftikhar. "A multi-modal, multi-atlas-based approach for Alzheimer detection via machine learning." International Journal of Imaging Systems and Technology 28, no. 2 (January 10, 2018): 113–23. http://dx.doi.org/10.1002/ima.22263.
Повний текст джерелаG, Nandhini, and Santosh K. Balivada. "Multi-Modal Feature Integration in Machine Learning Predictions for Cardiovascular Diseases." International Journal of Health Technology and Innovation 2, no. 03 (December 7, 2023): 15–18. http://dx.doi.org/10.60142/ijhti.v2i03.03.
Повний текст джерелаLiu, Huaping, Fengxue Li, Xinying Xu, and Fuchun Sun. "Multi-modal local receptive field extreme learning machine for object recognition." Neurocomputing 277 (February 2018): 4–11. http://dx.doi.org/10.1016/j.neucom.2017.04.077.
Повний текст джерелаLamichhane, Bidhan, Dinal Jayasekera, Rachel Jakes, Matthew F. Glasser, Justin Zhang, Chunhui Yang, Derayvia Grimes, et al. "Multi-modal biomarkers of low back pain: A machine learning approach." NeuroImage: Clinical 29 (2021): 102530. http://dx.doi.org/10.1016/j.nicl.2020.102530.
Повний текст джерелаДисертації з теми "Multi-modal Machine Learning"
McCalman, Lachlan Robert. "Function Embeddings for Multi-modal Bayesian Inference." Thesis, The University of Sydney, 2013. http://hdl.handle.net/2123/12031.
Повний текст джерелаBohg, Jeannette. "Multi-Modal Scene Understanding for Robotic Grasping." Doctoral thesis, KTH, Datorseende och robotik, CVAP, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-49062.
Повний текст джерелаQC 20111125
GRASP
Ben-Younes, Hedi. "Multi-modal representation learning towards visual reasoning." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS173.
Повний текст джерелаThe quantity of images that populate the Internet is dramatically increasing. It becomes of critical importance to develop the technology for a precise and automatic understanding of visual contents. As image recognition systems are becoming more and more relevant, researchers in artificial intelligence now seek for the next generation vision systems that can perform high-level scene understanding. In this thesis, we are interested in Visual Question Answering (VQA), which consists in building models that answer any natural language question about any image. Because of its nature and complexity, VQA is often considered as a proxy for visual reasoning. Classically, VQA architectures are designed as trainable systems that are provided with images, questions about them and their answers. To tackle this problem, typical approaches involve modern Deep Learning (DL) techniques. In the first part, we focus on developping multi-modal fusion strategies to model the interactions between image and question representations. More specifically, we explore bilinear fusion models and exploit concepts from tensor analysis to provide tractable and expressive factorizations of parameters. These fusion mechanisms are studied under the widely used visual attention framework: the answer to the question is provided by focusing only on the relevant image regions. In the last part, we move away from the attention mechanism and build a more advanced scene understanding architecture where we consider objects and their spatial and semantic relations. All models are thoroughly experimentally evaluated on standard datasets and the results are competitive with the literature
Michel, Fabrice. "Multi-Modal Similarity Learning for 3D Deformable Registration of Medical Images." Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-01005141.
Повний текст джерелаSvoboda, Jiří. "Multi-modální "Restricted Boltzmann Machines"." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236426.
Повний текст джерелаPartin, Michael. "Scalable, Pluggable, and Fault Tolerant Multi-Modal Situational Awareness Data Stream Management Systems." Wright State University / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=wright1567073723628721.
Повний текст джерелаStein, Sebastian. "Multi-modal recognition of manipulation activities through visual accelerometer tracking, relational histograms, and user-adaptation." Thesis, University of Dundee, 2014. https://discovery.dundee.ac.uk/en/studentTheses/61c22b7e-5f02-4f21-a948-bf9e7b497120.
Повний текст джерелаHusseini, Orabi Ahmed. "Multi-Modal Technology for User Interface Analysis including Mental State Detection and Eye Tracking Analysis." Thesis, Université d'Ottawa / University of Ottawa, 2017. http://hdl.handle.net/10393/36451.
Повний текст джерелаSiddiqui, Mohammad Faridul Haque. "A Multi-modal Emotion Recognition Framework Through The Fusion Of Speech With Visible And Infrared Images." University of Toledo / OhioLINK, 2019. http://rave.ohiolink.edu/etdc/view?acc_num=toledo1556459232937498.
Повний текст джерелаCosa, Liñán Alejandro. "Analytical fusion of multimodal magnetic resonance imaging to identify pathological states in genetically selected Marchigian Sardinian alcohol-preferring (msP) rats." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/90523.
Повний текст джерела[ES] El abuso de alcohol es una de las mayores preocupaciones de las autoridades sanitarias en la Unión Europea. El consumo de alcohol en exceso afecta en mayor o menor medida la totalidad del organismo siendo el páncreas e hígado los más severamente afectados. Además de estos, el sistema nervioso central sufre deterioros relacionados con el alcohol y con frecuencia se presenta en paralelo con otras patologías psiquiátricas como la depresión u otras adicciones como la ludopatía. La presencia de estas comorbidades demuestra la complejidad de la patología en la que multitud de sistemas neuronales interaccionan entre sí. El uso imágenes de resonancia magnética (RM) han ayudado en el estudio de enfermedades psiquiátricas facilitando el descubrimiento de mecanismos neurológicos fundamentales en el desarrollo y mantenimiento de la adicción al alcohol, recaídas y el efecto de los tratamientos disponibles. A pesar de los avances, todavía se necesita investigar más para identificar las bases biológicas que contribuyen a la enfermedad. En este sentido, los modelos animales sirven, por lo tanto, a discriminar aquellos factores únicamente relacionados con el alcohol controlando otros factores que facilitan el desarrollo del alcoholismo. Estudios de resonancia magnética en animales de laboratorio y su posterior evaluación en humanos juegan un papel fundamental en el entendimiento de las patologías psiquatricas como la addicción al alcohol. La imagen por resonancia magnética se ha integrado en entornos clínicos como prueba diagnósticas no invasivas. A medida que el volumen de datos se va incrementando, se necesitan herramientas y metodologías capaces de fusionar información de muy distinta naturaleza y así establecer criterios diagnósticos cada vez más exactos. El poder predictivo de herramientas derivadas de la inteligencia artificial como el aprendizaje automático sirven de complemento a tradicionales métodos estadísticos. En este trabajo se han abordado la mayoría de estos aspectos. Se han obtenido datos multimodales de resonancia magnética de un modelo validado en la investigación de patologías derivadas del consumo del alcohol, las ratas Marchigian-Sardinian desarrolladas en la Universidad de Camerino (Italia) y con consumos de alcohol comparables a los humanos. Para cada animal se han adquirido datos antes y después del consumo de alcohol y bajo dos condiciones de abstinencia (con y sin tratamiento de Naltrexona, una medicaciones anti-recaídas usada como farmacoterapia en el alcoholismo). Los datos de resonancia magnética multimodal consistentes en imágenes de difusión, de relaxometría y estructurales se han fusionado en un esquema analítico multivariable incorporando dos herramientas generalmente usadas en datos derivados de neuroimagen, Random Forest y Support Vector Machine. Nuestro esquema fue aplicado con dos objetivos diferenciados. Por un lado, determinar en qué fase experimental se encuentra el sujeto a partir de biomarcadores y por el otro, identificar sistemas cerebrales susceptibles de alterarse debido a una importante ingesta de alcohol y su evolución durante la abstinencia. Nuestros resultados demostraron que cuando biomarcadores derivados de múltiples modalidades de neuroimagen se fusionan en un único análisis producen diagnósticos más exactos que los derivados de una única modalidad (hasta un 16% de mejora). Biomarcadores derivados de imágenes de difusión y relaxometría discriminan estados experimentales. También se han identificado algunos aspectos innatos que están relacionados con posteriores comportamientos con el consumo de alcohol o la relación entre la respuesta al tratamiento y los datos de resonancia magnética. Resumiendo, a lo largo de esta tesis, se demuestra que el uso de datos de resonancia magnética multimodales en modelos animales combinados en esquemas analíticos multivariados es una herramienta válida en el entendimiento de patologías
[CAT] L'abús de alcohol es una de les majors preocupacions per part de les autoritats sanitàries de la Unió Europea. Malgrat la dificultat de establir xifres exactes, se estima que uns 23 milions de europeus actualment sofreixen de malalties derivades del alcoholisme amb un cost que supera els 150.000 milions de euros per a la societat. Un consum de alcohol en excés afecta en major o menor mesura el cos humà sent el pàncreas i el fetge el més afectats. A més, el cervell sofreix de deterioraments produïts per l'alcohol i amb freqüència coexisteixen amb altres patologies com depressió o altres addiccions com la ludopatia. Tot aquest demostra la complexitat de la malaltia en la que múltiple sistemes neuronals interactuen entre si. Tècniques no invasives com el encefalograma (EEG) o imatges de ressonància magnètica (RM) han ajudat en l'estudi de malalties psiquiàtriques facilitant el descobriment de mecanismes neurològics fonamentals en el desenvolupament i manteniment de la addició, recaiguda i la efectivitat dels tractaments disponibles. Tot i els avanços, encara es necessiten més investigacions per identificar les bases biològiques que contribueixen a la malaltia. En aquesta direcció, el models animals serveixen per a identificar únicament dependents del abús del alcohol. Estudis de ressonància magnètica en animals de laboratori i posterior avaluació en humans jugarien un paper fonamental en l' enteniment de l'ús del alcohol. L'ús de probes diagnostiques no invasives en entorns clínics has sigut integrades. A mesura que el volum de dades es incrementa, eines i metodologies per a la fusió d' informació de molt distinta natura i per tant, establir criteris diagnòstics cada vegada més exactes. La predictibilitat de eines desenvolupades en el camp de la intel·ligència artificial com la aprenentatge automàtic serveixen de complement a mètodes estadístics tradicionals. En aquesta investigació se han abordat tots aquestes aspectes. Dades multimodals de ressonància magnètica se han obtingut de un model animal validat en l'estudi de patologies relacionades amb el consum d'alcohol, les rates Marchigian-Sardinian desenvolupades en la Universitat de Camerino (Italià) i amb consums d'alcohol comparables als humans. Per a cada animal es van adquirir dades previs i després al consum de alcohol i dos condicions diferents de abstinència (amb i sense tractament anti-recaiguda). Dades de ressonància magnètica multimodal constituides per imatges de difusió, de relaxometria magnètica i estructurals van ser fusionades en esquemes analítics multivariats incorporant dues metodologies validades en el camp de neuroimatge, Random Forest i Support Vector Machine. Nostre esquema ha sigut aplicat amb dos objectius diferenciats. El primer objectiu es determinar en quina fase experimental es troba el subjecte a partir de biomarcadors obtinguts per neuroimatge. Per l'altra banda, el segon objectiu es identificar el sistemes cerebrals susceptibles de ser alterats durant una important ingesta de alcohol i la seua evolució durant la fase del tractament. El nostres resultats demostraren que l'ús de biomarcadors derivats de varies modalitats de neuroimatge fusionades en un anàlisis multivariat produeixen diagnòstics més exactes que els derivats de una única modalitat (fins un 16% de millora). Biomarcadors derivats de imatges de difusió i relaxometria van contribuir de distints estats experimentals. També s'han identificat aspectes innats que estan relacionades amb posterior preferències d'alcohol o la relació entre la resposta al tractament anti-recaiguda i les dades de ressonància magnètica. En resum, al llarg de aquest treball, es demostra que l'ús de dades de ressonància magnètica multimodal en models animals combinats en esquemes analítics multivariats són una eina molt valida en l'enteniment i avanç de patologies psiquiàtriques com l'alcoholisme.
Cosa Liñán, A. (2017). Analytical fusion of multimodal magnetic resonance imaging to identify pathological states in genetically selected Marchigian Sardinian alcohol-preferring (msP) rats [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90523
TESIS
Частини книг з теми "Multi-modal Machine Learning"
Zhou, Ziqi, Xinna Guo, Wanqi Yang, Yinghuan Shi, Luping Zhou, Lei Wang, and Ming Yang. "Cross-Modal Attention-Guided Convolutional Network for Multi-modal Cardiac Segmentation." In Machine Learning in Medical Imaging, 601–10. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-32692-0_69.
Повний текст джерелаXu, Hua. "Early Unimodal Sentiment Analysis of Comment Text Based on Traditional Machine Learning." In Multi-Modal Sentiment Analysis, 53–134. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-5776-7_3.
Повний текст джерелаYu, Zheng, Yanyuan Qiao, Yutong Xie, and Qi Wu. "Multi-modal Adapter for Medical Vision-and-Language Learning." In Machine Learning in Medical Imaging, 393–402. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-45673-2_39.
Повний текст джерелаSymeonidis, Panagiotis, and Christos Perentis. "Link Prediction in Multi-modal Social Networks." In Machine Learning and Knowledge Discovery in Databases, 147–62. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-662-44845-8_10.
Повний текст джерелаTong, Tong, Katherine Gray, Qinquan Gao, Liang Chen, and Daniel Rueckert. "Nonlinear Graph Fusion for Multi-modal Classification of Alzheimer’s Disease." In Machine Learning in Medical Imaging, 77–84. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-24888-2_10.
Повний текст джерелаGe, Hongkun, Guorong Wu, Li Wang, Yaozong Gao, and Dinggang Shen. "Hierarchical Multi-modal Image Registration by Learning Common Feature Representations." In Machine Learning in Medical Imaging, 203–11. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-24888-2_25.
Повний текст джерелаZhang, Sen, Changzheng Zhang, Lanjun Wang, Cixing Li, Dandan Tu, Rui Luo, Guojun Qi, and Jiebo Luo. "MSAFusionNet: Multiple Subspace Attention Based Deep Multi-modal Fusion Network." In Machine Learning in Medical Imaging, 54–62. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-32692-0_7.
Повний текст джерелаYang, Yang, Ye Zhonglin, Zhao Haixing, Li Gege, and Cao Shujuan. "BLR: A Multi-modal Sentiment Analysis Model." In Artificial Neural Networks and Machine Learning – ICANN 2023, 466–78. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44204-9_39.
Повний текст джерелаNai, Ruihua. "Intelligent Recognition Model for Machine Translation Based on Machine Learning Algorithm." In Application of Intelligent Systems in Multi-modal Information Analytics, 650–57. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-05237-8_80.
Повний текст джерелаGadekar, Aumkar, Shreya Oak, Abhishek Revadekar, and Anant V. Nimkar. "MMAP: A Multi-Modal Automated Online Proctor." In Machine Learning and Big Data Analytics (Proceedings of International Conference on Machine Learning and Big Data Analytics (ICMLBDA) 2021), 314–25. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-82469-3_28.
Повний текст джерелаТези доповідей конференцій з теми "Multi-modal Machine Learning"
Wachinger, Christian, and Nassir Navab. "Manifold Learning for Multi-Modal Image Registration." In British Machine Vision Conference 2010. British Machine Vision Association, 2010. http://dx.doi.org/10.5244/c.24.82.
Повний текст джерелаWang, Yan, Yawen Zeng, Junjie Liang, Xiaofen Xing, Jin Xu, and Xiangmin Xu. "RetrievalMMT: Retrieval-Constrained Multi-Modal Prompt Learning for Multi-Modal Machine Translation." In ICMR '24: International Conference on Multimedia Retrieval. New York, NY, USA: ACM, 2024. http://dx.doi.org/10.1145/3652583.3658018.
Повний текст джерелаM. Nguyen, D., K. Wong, and C. Chung. "Multi-Modal Search with Convex Bounding Neighbourhood." In 2006 International Conference on Machine Learning and Cybernetics. IEEE, 2006. http://dx.doi.org/10.1109/icmlc.2006.258347.
Повний текст джерелаHuang, Xin, Jiajun Zhang, and Chengqing Zong. "Entity-level Cross-modal Learning Improves Multi-modal Machine Translation." In Findings of the Association for Computational Linguistics: EMNLP 2021. Stroudsburg, PA, USA: Association for Computational Linguistics, 2021. http://dx.doi.org/10.18653/v1/2021.findings-emnlp.92.
Повний текст джерелаGupta, Danika. "Early detection of Alzheimer’s via machine learning with multi-modal data." In Applications of Machine Learning 2022, edited by Michael E. Zelinski, Tarek M. Taha, and Jonathan Howe. SPIE, 2022. http://dx.doi.org/10.1117/12.2641481.
Повний текст джерелаFreeman, Cecille, Dana Kulic, and Otman Basir. "Multi-modal Tree-Based SVM Classification." In 2013 12th International Conference on Machine Learning and Applications (ICMLA). IEEE, 2013. http://dx.doi.org/10.1109/icmla.2013.19.
Повний текст джерелаBoishakhi, Fariha Tahosin, Ponkoj Chandra Shill, and Md Golam Rabiul Alam. "Multi-modal Hate Speech Detection using Machine Learning." In 2021 IEEE International Conference on Big Data (Big Data). IEEE, 2021. http://dx.doi.org/10.1109/bigdata52589.2021.9671955.
Повний текст джерелаIrfan, Asim, Danish Azeem, Sanam Narejo, and Naresh Kumar. "Multi-Modal Hate Speech Recognition Through Machine Learning." In 2024 IEEE 1st Karachi Section Humanitarian Technology Conference (KHI-HTC). IEEE, 2024. http://dx.doi.org/10.1109/khi-htc60760.2024.10482031.
Повний текст джерелаMenon Manghat, Neeraj, Vaishak Gopalakrishna, Sai Bonthu, Victor Hunt, Arthur Helmicki, and Doug McClintock. "Machine Learning Based Multi-Modal Transportation Network Planner." In International Conference on Transportation and Development 2024. Reston, VA: American Society of Civil Engineers, 2024. http://dx.doi.org/10.1061/9780784485514.034.
Повний текст джерелаEllis, Seth T., and Andre V. Harrison. "Detecting functional objects using multi-modal data." In Artificial Intelligence and Machine Learning for Multi-Domain Operations Applications V, edited by Latasha Solomon and Peter J. Schwartz. SPIE, 2023. http://dx.doi.org/10.1117/12.2664059.
Повний текст джерелаЗвіти організацій з теми "Multi-modal Machine Learning"
Ehiabhi, Jolly, and Haifeng Wang. A Systematic Review of Machine Learning Models in Mental Health Analysis Based on Multi-Channel Multi-Modal Biometric Signals. INPLASY - International Platform of Registered Systematic Review and Meta-analysis Protocols, February 2023. http://dx.doi.org/10.37766/inplasy2023.2.0003.
Повний текст джерела