Zeitschriftenartikel zum Thema „3D saliency“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "3D saliency" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Jiao, Yuzhong, Mark Ping Chan Mok, Kayton Wai Keung Cheung, Man Chi Chan, Tak Wai Shen und Yiu Kei Li. „Dynamic Zero-Parallax-Setting Techniques for Multi-View Autostereoscopic Display“. Electronic Imaging 2020, Nr. 2 (26.01.2020): 98–1. http://dx.doi.org/10.2352/issn.2470-1173.2020.2.sda-098.
Der volle Inhalt der QuelleA K, Aswathi, und Namitha T N. „3D Saliency Detection“. International Journal of Engineering Trends and Technology 47, Nr. 6 (25.05.2017): 353–55. http://dx.doi.org/10.14445/22315381/ijett-v47p257.
Der volle Inhalt der QuelleZhang, Ya, Chunyi Chen, Xiaojuan Hu, Ling Li und Hailan Li. „Saliency detection of textured 3D models based on multi-view information and texel descriptor“. PeerJ Computer Science 9 (25.10.2023): e1584. http://dx.doi.org/10.7717/peerj-cs.1584.
Der volle Inhalt der QuelleFavorskaya, M. N., und L. C. Jain. „Saliency detection in deep learning era: trends of development“. Information and Control Systems, Nr. 3 (21.06.2019): 10–36. http://dx.doi.org/10.31799/1684-8853-2019-3-10-36.
Der volle Inhalt der QuelleLiu, Tao, Zhixiang Fang, Qingzhou Mao, Qingquan Li und Xing Zhang. „A cube-based saliency detection method using integrated visual and spatial features“. Sensor Review 36, Nr. 2 (21.03.2016): 148–57. http://dx.doi.org/10.1108/sr-07-2015-0110.
Der volle Inhalt der QuelleYuan, Jing, Yang Cao, Yu Kang, Weiguo Song, Zhongcheng Yin, Rui Ba und Qing Ma. „3D Layout encoding network for spatial‐aware 3D saliency modelling“. IET Computer Vision 13, Nr. 5 (10.07.2019): 480–88. http://dx.doi.org/10.1049/iet-cvi.2018.5591.
Der volle Inhalt der QuelleHamidi, Mohamed, Aladine Chetouani, Mohamed El Haziti, Mohammed El Hassouni und Hocine Cherifi. „Blind Robust 3D Mesh Watermarking Based on Mesh Saliency and Wavelet Transform for Copyright Protection“. Information 10, Nr. 2 (18.02.2019): 67. http://dx.doi.org/10.3390/info10020067.
Der volle Inhalt der QuelleChen, Yanxiang, Yifei Pan, Minglong Song und Meng Wang. „Image retargeting with a 3D saliency model“. Signal Processing 112 (Juli 2015): 53–63. http://dx.doi.org/10.1016/j.sigpro.2014.11.001.
Der volle Inhalt der QuelleLin, Hongyun, Chunyu Lin, Yao Zhao und Anhong Wang. „3D saliency detection based on background detection“. Journal of Visual Communication and Image Representation 48 (Oktober 2017): 238–53. http://dx.doi.org/10.1016/j.jvcir.2017.06.011.
Der volle Inhalt der QuelleJunle Wang, M. P. DaSilva, P. LeCallet und V. Ricordel. „Computational Model of Stereoscopic 3D Visual Saliency“. IEEE Transactions on Image Processing 22, Nr. 6 (Juni 2013): 2151–65. http://dx.doi.org/10.1109/tip.2013.2246176.
Der volle Inhalt der QuelleBao, Lei, Xiongwei Zhang, Yunfei Zheng und Yang Li. „Video saliency detection using 3D shearlet transform“. Multimedia Tools and Applications 75, Nr. 13 (23.06.2015): 7761–78. http://dx.doi.org/10.1007/s11042-015-2692-4.
Der volle Inhalt der QuelleZong Baobao, 纵宝宝, 李朝锋 Li Chaofeng und 桑庆兵 Sang Qingbing. „3D Image Saliency Detection Based on Log-Gabor Filtering and Saliency Map Fusion Optimization“. Laser & Optoelectronics Progress 56, Nr. 8 (2019): 081003. http://dx.doi.org/10.3788/lop56.081003.
Der volle Inhalt der QuellePan, Gang, An-Zhi Wang, Bao-Lei Xu und Weihua Ou. „Multi-scale Feature Fusion for 3D Saliency Detection“. Journal of Physics: Conference Series 1651 (November 2020): 012128. http://dx.doi.org/10.1088/1742-6596/1651/1/012128.
Der volle Inhalt der QuelleMiao, Yongwei, und Jieqing Feng. „Perceptual-saliency extremum lines for 3D shape illustration“. Visual Computer 26, Nr. 6-8 (09.04.2010): 433–43. http://dx.doi.org/10.1007/s00371-010-0458-6.
Der volle Inhalt der QuelleZhang, Li-na, Shi-yao Wang, Jun Zhou, Jian Liu und Chun-gang Zhu. „3D grasp saliency analysis via deep shape correspondence“. Computer Aided Geometric Design 81 (August 2020): 101901. http://dx.doi.org/10.1016/j.cagd.2020.101901.
Der volle Inhalt der QuelleWang, Weiming, Haiyuan Chao, Jing Tong, Zhouwang Yang, Xin Tong, Hang Li, Xiuping Liu und Ligang Liu. „Saliency-Preserving Slicing Optimization for Effective 3D Printing“. Computer Graphics Forum 34, Nr. 6 (28.01.2015): 148–60. http://dx.doi.org/10.1111/cgf.12527.
Der volle Inhalt der QuelleBanitalebi-Dehkordi, Amin, und Panos Nasiopoulos. „Saliency inspired quality assessment of stereoscopic 3D video“. Multimedia Tools and Applications 77, Nr. 19 (06.03.2018): 26055–82. http://dx.doi.org/10.1007/s11042-018-5837-4.
Der volle Inhalt der QuelleLiu, Zhengyi, Tengfei Song und Feng Xie. „RGB-D image saliency detection from 3D perspective“. Multimedia Tools and Applications 78, Nr. 6 (31.07.2018): 6787–804. http://dx.doi.org/10.1007/s11042-018-6319-4.
Der volle Inhalt der QuelleLézoray, Olivier, und Anass Nouri. „3D mesh saliency from local spiral hop descriptors“. Electronic Imaging 35, Nr. 17 (16.01.2023): 103–1. http://dx.doi.org/10.2352/ei.2023.35.17.3dia-103.
Der volle Inhalt der QuelleXu, Tao, Songmin Jia, Zhengyin Dong und Xiuzhi Li. „Obstacles Regions 3D-Perception Method for Mobile Robots Based on Visual Saliency“. Journal of Robotics 2015 (2015): 1–10. http://dx.doi.org/10.1155/2015/720174.
Der volle Inhalt der QuelleRuiu, Pietro, Lorenzo Mascia und Enrico Grosso. „Saliency-Guided Point Cloud Compression for 3D Live Reconstruction“. Multimodal Technologies and Interaction 8, Nr. 5 (03.05.2024): 36. http://dx.doi.org/10.3390/mti8050036.
Der volle Inhalt der QuelleShafiq, Muhammad Amir, Zhiling Long, Haibin Di und Ghassan AlRegib. „A novel attention model for salient structure detection in seismic volumes“. Applied Computing and Intelligence 1, Nr. 1 (2021): 31–45. http://dx.doi.org/10.3934/aci.2021002.
Der volle Inhalt der QuelleZou, Wenbin, Shengkai Zhuo, Yi Tang, Shishun Tian, Xia Li und Chen Xu. „STA3D: Spatiotemporally attentive 3D network for video saliency prediction“. Pattern Recognition Letters 147 (Juli 2021): 78–84. http://dx.doi.org/10.1016/j.patrec.2021.04.010.
Der volle Inhalt der QuelleShi, Zhenfeng, Hao Luo und Xiamu Niu. „Saliency-based structural degradation evaluation of 3D mesh simplification“. IEICE Electronics Express 8, Nr. 3 (2011): 161–67. http://dx.doi.org/10.1587/elex.8.161.
Der volle Inhalt der QuelleQi, Feng, Debin Zhao, Shaohui Liu und Xiaopeng Fan. „3D visual saliency detection model with generated disparity map“. Multimedia Tools and Applications 76, Nr. 2 (29.01.2016): 3087–103. http://dx.doi.org/10.1007/s11042-015-3229-6.
Der volle Inhalt der QuelleBanerjee, Subhashis, Sushmita Mitra und B. Uma Shankar. „Automated 3D segmentation of brain tumor using visual saliency“. Information Sciences 424 (Januar 2018): 337–53. http://dx.doi.org/10.1016/j.ins.2017.10.011.
Der volle Inhalt der QuelleBanitalebi-Dehkordi, Amin, Mahsa T. Pourazad und Panos Nasiopoulos. „A learning-based visual saliency prediction model for stereoscopic 3D video (LBVS-3D)“. Multimedia Tools and Applications 76, Nr. 22 (23.11.2016): 23859–90. http://dx.doi.org/10.1007/s11042-016-4155-y.
Der volle Inhalt der QuelleMessai, Oussama, Aladine Chetouani, Fella Hachouf und Zianou Ahmed Seghir. „Deep Quality evaluator guided by 3D Saliency for Stereoscopic Images“. Electronic Imaging 2021, Nr. 11 (18.01.2021): 110–1. http://dx.doi.org/10.2352/issn.2470-1173.2021.11.hvei-110.
Der volle Inhalt der QuelleJIANG, Yibo, Hui BI, Hui LI und Zhihao XU. „Automatic and Accurate 3D Measurement Based on RGBD Saliency Detection“. IEICE Transactions on Information and Systems E102.D, Nr. 3 (01.03.2019): 688–89. http://dx.doi.org/10.1587/transinf.2018edl8212.
Der volle Inhalt der QuelleChen, Yanxiang, Yifei Pan, Minglong Song und Meng Wang. „Improved seam carving combining with 3D saliency for image retargeting“. Neurocomputing 151 (März 2015): 645–53. http://dx.doi.org/10.1016/j.neucom.2014.05.089.
Der volle Inhalt der QuelleZhao, Yitian, Yonghuai Liu, Yongjun Wang, Baogang Wei, Jian Yang, Yifan Zhao und Yongtian Wang. „Region-based saliency estimation for 3D shape analysis and understanding“. Neurocomputing 197 (Juli 2016): 1–13. http://dx.doi.org/10.1016/j.neucom.2016.01.012.
Der volle Inhalt der QuelleMiao, Yongwei, Jieqing Feng und Renato Pajarola. „Visual saliency guided normal enhancement technique for 3D shape depiction“. Computers & Graphics 35, Nr. 3 (Juni 2011): 706–12. http://dx.doi.org/10.1016/j.cag.2011.03.017.
Der volle Inhalt der QuelleJeong, Se-Won, und Jae-Young Sim. „Saliency Detection for 3D Surface Geometry Using Semi-regular Meshes“. IEEE Transactions on Multimedia 19, Nr. 12 (Dezember 2017): 2692–705. http://dx.doi.org/10.1109/tmm.2017.2710802.
Der volle Inhalt der QuelleWang, Haoqian, Bing Yan, Xingzheng Wang, Yongbing Zhang und Yi Yang. „Accurate saliency detection based on depth feature of 3D images“. Multimedia Tools and Applications 77, Nr. 12 (16.08.2017): 14655–72. http://dx.doi.org/10.1007/s11042-017-5052-8.
Der volle Inhalt der QuelleMangal, Anuj, Hitendra Garg und Charul Bhatnagar. „Modified ResNet50 model and semantic segmentation based image co-saliency detection“. Journal of Information and Optimization Sciences 44, Nr. 6 (2023): 1035–42. http://dx.doi.org/10.47974/jios-1331.
Der volle Inhalt der QuelleWen, Falin, Qinghui Wang, Ruirui Zou, Ying Wang, Fenglin Liu, Yang Chen, Linghao Yu, Shaoyi Du und Chengzhi Yuan. „A Salient Object Detection Method Based on Boundary Enhancement“. Sensors 23, Nr. 16 (10.08.2023): 7077. http://dx.doi.org/10.3390/s23167077.
Der volle Inhalt der QuelleLyu, Wei, Wei Wu, Lin Zhang, Zhaohui Wu und Zhong Zhou. „Laplacian-based 3D mesh simplification with feature preservation“. International Journal of Modeling, Simulation, and Scientific Computing 10, Nr. 02 (April 2019): 1950002. http://dx.doi.org/10.1142/s1793962319500028.
Der volle Inhalt der QuelleLeal Narvaez, Esmeide Alberto, German Sanchez Torres und John William Branch Bedoya. „Point cloud saliency detection via local sparse coding“. DYNA 86, Nr. 209 (01.04.2019): 238–47. http://dx.doi.org/10.15446/dyna.v86n209.75958.
Der volle Inhalt der QuellePham, Nam, und Sergey Fomel. „Uncertainty and interpretability analysis of encoder-decoder architecture for channel detection“. GEOPHYSICS 86, Nr. 4 (01.07.2021): O49—O58. http://dx.doi.org/10.1190/geo2020-0409.1.
Der volle Inhalt der QuelleWei, Guangshun, Long Ma, Chen Wang, Christian Desrosiers und Yuanfeng Zhou. „Multi-Task Joint Learning of 3D Keypoint Saliency and Correspondence Estimation“. Computer-Aided Design 141 (Dezember 2021): 103105. http://dx.doi.org/10.1016/j.cad.2021.103105.
Der volle Inhalt der QuelleMessai, Oussama, Aladine Chetouani, Fella Hachouf und Zianou Ahmed Seghir. „3D saliency guided deep quality predictor for no-reference stereoscopic images“. Neurocomputing 478 (März 2022): 22–36. http://dx.doi.org/10.1016/j.neucom.2022.01.002.
Der volle Inhalt der QuelleFang, Yuming, Guanqun Ding, Jia Li und Zhijun Fang. „Deep3DSaliency: Deep Stereoscopic Video Saliency Detection Model by 3D Convolutional Networks“. IEEE Transactions on Image Processing 28, Nr. 5 (Mai 2019): 2305–18. http://dx.doi.org/10.1109/tip.2018.2885229.
Der volle Inhalt der QuelleFilipe, Silvio, Laurent Itti und Luis A. Alexandre. „BIK-BUS: Biologically Motivated 3D Keypoint Based on Bottom-Up Saliency“. IEEE Transactions on Image Processing 24, Nr. 1 (Januar 2015): 163–75. http://dx.doi.org/10.1109/tip.2014.2371532.
Der volle Inhalt der QuelleCastellani, U., M. Cristani, S. Fantoni und V. Murino. „Sparse points matching by combining 3D mesh saliency with statistical descriptors“. Computer Graphics Forum 27, Nr. 2 (April 2008): 643–52. http://dx.doi.org/10.1111/j.1467-8659.2008.01162.x.
Der volle Inhalt der QuelleGuo, Yu, Fei Wang und Jingmin Xin. „Point-wise saliency detection on 3D point clouds via covariance descriptors“. Visual Computer 34, Nr. 10 (26.06.2017): 1325–38. http://dx.doi.org/10.1007/s00371-017-1416-3.
Der volle Inhalt der QuelleBulbul, Abdullah, Sami Arpa und Tolga Capin. „A clustering-based method to estimate saliency in 3D animated meshes“. Computers & Graphics 43 (Oktober 2014): 11–20. http://dx.doi.org/10.1016/j.cag.2014.04.003.
Der volle Inhalt der QuelleSun, Zhenhao, Xu Wang, Qiudan Zhang und Jianmin Jiang. „Real-Time Video Saliency Prediction Via 3D Residual Convolutional Neural Network“. IEEE Access 7 (2019): 147743–54. http://dx.doi.org/10.1109/access.2019.2946479.
Der volle Inhalt der QuelleSaleh, Kamel, und Mark Sumner. „A SVM-3D Based Encoderless Control of a Fault-Tolerant PMSM Drive“. Electronics 9, Nr. 7 (04.07.2020): 1095. http://dx.doi.org/10.3390/electronics9071095.
Der volle Inhalt der QuelleNie, Weizhi, Lu Qu, Minjie Ren, Qi Liang, Yuting Su, Yangyang Li und Hao Jin. „Two-Stream Network Based on Visual Saliency Sharing for 3D Model Recognition“. IEEE Access 8 (2020): 5979–89. http://dx.doi.org/10.1109/access.2019.2963511.
Der volle Inhalt der QuelleAbouelaziz, Ilyass, Aladine Chetouani, Mohammed El Hassouni, Longin Jan Latecki und Hocine Cherifi. „3D visual saliency and convolutional neural network for blind mesh quality assessment“. Neural Computing and Applications 32, Nr. 21 (19.10.2019): 16589–603. http://dx.doi.org/10.1007/s00521-019-04521-1.
Der volle Inhalt der Quelle