Zeitschriftenartikel zum Thema „Multi-Camera network“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Multi-Camera network" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Wu, Yi-Chang, Ching-Han Chen, Yao-Te Chiu und Pi-Wei Chen. „Cooperative People Tracking by Distributed Cameras Network“. Electronics 10, Nr. 15 (25.07.2021): 1780. http://dx.doi.org/10.3390/electronics10151780.
Der volle Inhalt der QuelleR.Kennady, Et al. „A Nonoverlapping Vision Field Multi-Camera Network for Tracking Human Build Targets“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 3 (31.03.2023): 366–69. http://dx.doi.org/10.17762/ijritcc.v11i3.9871.
Der volle Inhalt der QuelleZhao, Guoliang, Yuxun Zhou, Zhanbo Xu, Yadong Zhou und Jiang Wu. „Hierarchical Multi-Supervision Multi-Interaction Graph Attention Network for Multi-Camera Pedestrian Trajectory Prediction“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 4 (28.06.2022): 4698–706. http://dx.doi.org/10.1609/aaai.v36i4.20395.
Der volle Inhalt der QuelleSharma, Anil, Saket Anand und Sanjit K. Kaul. „Reinforcement Learning Based Querying in Camera Networks for Efficient Target Tracking“. Proceedings of the International Conference on Automated Planning and Scheduling 29 (25.05.2021): 555–63. http://dx.doi.org/10.1609/icaps.v29i1.3522.
Der volle Inhalt der QuelleLi, Xiaolin, Wenhui Dong, Faliang Chang und Peishu Qu. „Topology Learning of Non-overlapping Multi-camera Network“. International Journal of Signal Processing, Image Processing and Pattern Recognition 8, Nr. 11 (30.11.2015): 243–54. http://dx.doi.org/10.14257/ijsip.2015.8.11.22.
Der volle Inhalt der QuelleLiu, Xin, Herman G. J. Groot, Egor Bondarev und Peter H. N. de With. „Introducing Scene Understanding to Person Re-Identification using a Spatio-Temporal Multi-Camera Model“. Electronic Imaging 2020, Nr. 10 (26.01.2020): 95–1. http://dx.doi.org/10.2352/issn.2470-1173.2020.10.ipas-095.
Der volle Inhalt der QuelleHe, Li, Guoliang Liu, Guohui Tian, Jianhua Zhang und Ze Ji. „Efficient Multi-View Multi-Target Tracking Using a Distributed Camera Network“. IEEE Sensors Journal 20, Nr. 4 (15.02.2020): 2056–63. http://dx.doi.org/10.1109/jsen.2019.2949385.
Der volle Inhalt der QuelleLi, Yun-Lun, Hao-Ting Li und Chen-Kuo Chiang. „Multi-Camera Vehicle Tracking Based on Deep Tracklet Similarity Network“. Electronics 11, Nr. 7 (24.03.2022): 1008. http://dx.doi.org/10.3390/electronics11071008.
Der volle Inhalt der QuelleTruong, Philips, Deligiannis, Abrahamyan und Guan. „Automatic Multi-Camera Extrinsic Parameter Calibration Based on Pedestrian Torsors †“. Sensors 19, Nr. 22 (15.11.2019): 4989. http://dx.doi.org/10.3390/s19224989.
Der volle Inhalt der QuelleSumathy, R. „Face Recognition in Multi Camera Network with Sh Feature“. International Journal of Modern Education and Computer Science 7, Nr. 5 (08.05.2015): 59–64. http://dx.doi.org/10.5815/ijmecs.2015.05.08.
Der volle Inhalt der QuelleGuan, Banglei, Xiangyi Sun, Yang Shang, Xiaohu Zhang und Manuel Hofer. „Multi-camera networks for motion parameter estimation of an aircraft“. International Journal of Advanced Robotic Systems 14, Nr. 1 (01.01.2017): 172988141769231. http://dx.doi.org/10.1177/1729881417692312.
Der volle Inhalt der QuelleElwarfalli, Hamed, Dylan Flaute und Russell C. Hardie. „Exponential Fusion of Interpolated Frames Network (EFIF-Net): Advancing Multi-Frame Image Super-Resolution with Convolutional Neural Networks“. Sensors 24, Nr. 1 (04.01.2024): 296. http://dx.doi.org/10.3390/s24010296.
Der volle Inhalt der QuelleHuang, Sunan, Rodney Swee Huat Teo und William Wai Lun Leong. „Multi-Camera Networks for Coverage Control of Drones“. Drones 6, Nr. 3 (03.03.2022): 67. http://dx.doi.org/10.3390/drones6030067.
Der volle Inhalt der QuelleHuang, Zhengyue, Zhehui Zhao, Hengguang Zhou, Xibin Zhao und Yue Gao. „DeepCCFV: Camera Constraint-Free Multi-View Convolutional Neural Network for 3D Object Retrieval“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8505–12. http://dx.doi.org/10.1609/aaai.v33i01.33018505.
Der volle Inhalt der QuellePENALOZA, Christian, Yasushi MAE, Tatsuo ARAI, Kenichi OHARA und Tomohito TAKUBO. „2P1-Q04 Multi-Appearance Object Modeling using Camera Network in Household Environment(Intelligent and Robotic Room)“. Proceedings of JSME annual Conference on Robotics and Mechatronics (Robomec) 2011 (2011): _2P1—Q04_1—_2P1—Q04_4. http://dx.doi.org/10.1299/jsmermd.2011._2p1-q04_1.
Der volle Inhalt der QuelleCho, Myungjin, Howon Lee, Hyun-Ho Choi und Bahram Javidi. „A Three-Dimensional Image Transmission Using In-Network Computation in Wireless Multi-Camera Networks“. IEEE Journal of the Electron Devices Society 5, Nr. 6 (November 2017): 445–52. http://dx.doi.org/10.1109/jeds.2017.2721368.
Der volle Inhalt der QuelleGuo, Yuhao, und Hui Hu. „Multi-Layer Fusion 3D Object Detection via Lidar Point Cloud and Camera Image“. Applied Sciences 14, Nr. 4 (06.02.2024): 1348. http://dx.doi.org/10.3390/app14041348.
Der volle Inhalt der QuelleVoulodimos, Athanasios S., Nikolaos D. Doulamis, Dimitrios I. Kosmopoulos und Theodora A. Varvarigou. „IMPROVING MULTI-CAMERA ACTIVITY RECOGNITION BY EMPLOYING NEURAL NETWORK BASED READJUSTMENT“. Applied Artificial Intelligence 26, Nr. 1-2 (Januar 2012): 97–118. http://dx.doi.org/10.1080/08839514.2012.629540.
Der volle Inhalt der QuelleBi Song und A. K. Roy-Chowdhury. „Robust Tracking in A Camera Network: A Multi-Objective Optimization Framework“. IEEE Journal of Selected Topics in Signal Processing 2, Nr. 4 (August 2008): 582–96. http://dx.doi.org/10.1109/jstsp.2008.925992.
Der volle Inhalt der QuelleKim, Seong Hyun, und Ju Yong Chang. „Single-Shot 3D Multi-Person Shape Reconstruction from a Single RGB Image“. Entropy 22, Nr. 8 (23.07.2020): 806. http://dx.doi.org/10.3390/e22080806.
Der volle Inhalt der QuelleOsiński, Piotr, Jakub Markiewicz, Jarosław Nowisz, Michał Remiszewski, Albert Rasiński und Robert Sitnik. „A Novel Approach for Dynamic (4d) Multi-View Stereo System Camera Network Design“. Sensors 22, Nr. 4 (17.02.2022): 1576. http://dx.doi.org/10.3390/s22041576.
Der volle Inhalt der QuelleHong, Yong, Deren Li, Shupei Luo, Xin Chen, Yi Yang und Mi Wang. „An Improved End-to-End Multi-Target Tracking Method Based on Transformer Self-Attention“. Remote Sensing 14, Nr. 24 (15.12.2022): 6354. http://dx.doi.org/10.3390/rs14246354.
Der volle Inhalt der QuelleVandendriessche, Jurgen, Bruno da Silva, Lancelot Lhoest, An Braeken und Abdellah Touhafi. „M3-AC: A Multi-Mode Multithread SoC FPGA Based Acoustic Camera“. Electronics 10, Nr. 3 (29.01.2021): 317. http://dx.doi.org/10.3390/electronics10030317.
Der volle Inhalt der QuelleRosas-Cervantes, Vinicio, Quoc-Dong Hoang, Sooho Woo und Soon-Geul Lee. „Mobile robot 3D trajectory estimation on a multilevel surface with multimodal fusion of 2D camera features and a 3D light detection and ranging point cloud“. International Journal of Advanced Robotic Systems 19, Nr. 2 (01.03.2022): 172988062210891. http://dx.doi.org/10.1177/17298806221089198.
Der volle Inhalt der QuelleZhang, Yi, und J. Chen. „A Intelligent Wheelchair Obstacle Avoidance System Based on Multi-Sensor Fusion Technology“. Key Engineering Materials 455 (Dezember 2010): 121–26. http://dx.doi.org/10.4028/www.scientific.net/kem.455.121.
Der volle Inhalt der QuelleGao, Fei, Meizhen Wang, Xuejun Liu und Ziran Wang. „A multi-objective scheduling optimization algorithm of a camera network for directional road network coverage“. PLOS ONE 13, Nr. 10 (31.10.2018): e0206038. http://dx.doi.org/10.1371/journal.pone.0206038.
Der volle Inhalt der QuelleHe, Fangzhou. „Exploration of Multi-Node Collaborative Image Acquisition and Compression Techniques for Wireless Multimedia Sensor Networks“. International Journal of Online and Biomedical Engineering (iJOE) 15, Nr. 01 (17.01.2019): 196. http://dx.doi.org/10.3991/ijoe.v15i01.9787.
Der volle Inhalt der QuelleDong, Xuan, Weixin Li und Xiaojie Wang. „Pyramid convolutional network for colorization in monochrome-color multi-lens camera system“. Neurocomputing 450 (August 2021): 129–42. http://dx.doi.org/10.1016/j.neucom.2021.04.014.
Der volle Inhalt der QuelleMING, An-Long, Hua-Dong MA und Hui-Yuan FU. „Bayes Causal Network Based Method for Role Identification in Multi-Camera Surveillance“. Chinese Journal of Computers 33, Nr. 12 (23.05.2011): 2378–86. http://dx.doi.org/10.3724/sp.j.1016.2010.02378.
Der volle Inhalt der QuelleCanedo-Rodriguez, A., C. V. Regueiro, R. Iglesias, V. Alvarez-Santos und X. M. Pardo. „Self-organized multi-camera network for ubiquitous robot deployment in unknown environments“. Robotics and Autonomous Systems 61, Nr. 7 (Juli 2013): 667–75. http://dx.doi.org/10.1016/j.robot.2012.08.014.
Der volle Inhalt der QuelleYao, Hongwei, Tong Qiao, Ming Xu und Ning Zheng. „Robust Multi-Classifier for Camera Model Identification Based on Convolution Neural Network“. IEEE Access 6 (2018): 24973–82. http://dx.doi.org/10.1109/access.2018.2832066.
Der volle Inhalt der QuelleStamatopoulos, C., und C. S. Fraser. „Automated Target-Free Network Orienation and Camera Calibration“. ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences II-5 (28.05.2014): 339–46. http://dx.doi.org/10.5194/isprsannals-ii-5-339-2014.
Der volle Inhalt der QuelleBazi, Yakoub, Haikel Alhichri, Naif Alajlan und Farid Melgani. „Scene Description for Visually Impaired People with Multi-Label Convolutional SVM Networks“. Applied Sciences 9, Nr. 23 (23.11.2019): 5062. http://dx.doi.org/10.3390/app9235062.
Der volle Inhalt der QuelleHong, Jongkwang, Bora Cho, Yong Hong und Hyeran Byun. „Contextual Action Cues from Camera Sensor for Multi-Stream Action Recognition“. Sensors 19, Nr. 6 (20.03.2019): 1382. http://dx.doi.org/10.3390/s19061382.
Der volle Inhalt der QuelleLi, Hongchao, Chenglong Li, Xianpeng Zhu, Aihua Zheng und Bin Luo. „Multi-Spectral Vehicle Re-Identification: A Challenge“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11345–53. http://dx.doi.org/10.1609/aaai.v34i07.6796.
Der volle Inhalt der QuelleHeo, Jinyeong, und Yongjin (James) Kwon. „3D Vehicle Trajectory Extraction Using DCNN in an Overlapping Multi-Camera Crossroad Scene“. Sensors 21, Nr. 23 (26.11.2021): 7879. http://dx.doi.org/10.3390/s21237879.
Der volle Inhalt der QuelleFan, Zhijie, Zhiwei Cao, Xin Li, Chunmei Wang, Bo Jin und Qianjin Tang. „Video Surveillance Camera Identity Recognition Method Fused With Multi-Dimensional Static and Dynamic Identification Features“. International Journal of Information Security and Privacy 17, Nr. 1 (09.03.2023): 1–18. http://dx.doi.org/10.4018/ijisp.319304.
Der volle Inhalt der QuelleZhou, Jing, Shi Jun Li, Dong Yan Huang, Xiao Lin Chen und Ye Chi Zhang. „Data Normalization of Single Camera Visual Measurement Network System“. Applied Mechanics and Materials 263-266 (Dezember 2012): 2381–84. http://dx.doi.org/10.4028/www.scientific.net/amm.263-266.2381.
Der volle Inhalt der QuelleJiang, Mingjun, Zihan Zhang, Kohei Shimasaki, Shaopeng Hu und Idaku Ishii. „Multi-Thread AI Cameras Using High-Speed Active Vision System“. Journal of Robotics and Mechatronics 34, Nr. 5 (20.10.2022): 1053–62. http://dx.doi.org/10.20965/jrm.2022.p1053.
Der volle Inhalt der QuellePerfetti, L., C. Polari und F. Fassi. „FISHEYE MULTI-CAMERA SYSTEM CALIBRATION FOR SURVEYING NARROW AND COMPLEX ARCHITECTURES“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2 (30.05.2018): 877–83. http://dx.doi.org/10.5194/isprs-archives-xlii-2-877-2018.
Der volle Inhalt der QuelleWang, Sijie, Qiyu Kang, Rui She, Wee Peng Tay, Andreas Hartmannsgruber und Diego Navarro Navarro. „RobustLoc: Robust Camera Pose Regression in Challenging Driving Environments“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 5 (26.06.2023): 6209–16. http://dx.doi.org/10.1609/aaai.v37i5.25765.
Der volle Inhalt der QuelleAlsadik, Bashar, Luuk Spreeuwers, Farzaneh Dadrass Javan und Nahuel Manterola. „Mathematical Camera Array Optimization for Face 3D Modeling Application“. Sensors 23, Nr. 24 (12.12.2023): 9776. http://dx.doi.org/10.3390/s23249776.
Der volle Inhalt der QuelleDong, Huanan, Ming Wen und Zhouwang Yang. „Vehicle Speed Estimation Based on 3D ConvNets and Non-Local Blocks“. Future Internet 11, Nr. 6 (30.05.2019): 123. http://dx.doi.org/10.3390/fi11060123.
Der volle Inhalt der QuelleLiang, Hong, Zizhen Ma und Qian Zhang. „Self-Supervised Object Distance Estimation Using a Monocular Camera“. Sensors 22, Nr. 8 (12.04.2022): 2936. http://dx.doi.org/10.3390/s22082936.
Der volle Inhalt der QuelleChoi, Doo-Hyun, und Se-Young Oh. „Real-Time Neural Network Based Camera Localization and its Extension to Mobile Robot Control“. International Journal of Neural Systems 08, Nr. 03 (Juni 1997): 279–93. http://dx.doi.org/10.1142/s012906579700029x.
Der volle Inhalt der QuelleAntuña-Sánchez, Juan C., Roberto Román, Victoria E. Cachorro, Carlos Toledano, César López, Ramiro González, David Mateos, Abel Calle und Ángel M. de Frutos. „Relative sky radiance from multi-exposure all-sky camera images“. Atmospheric Measurement Techniques 14, Nr. 3 (22.03.2021): 2201–17. http://dx.doi.org/10.5194/amt-14-2201-2021.
Der volle Inhalt der QuelleDeng, Xinpeng, Su Qiu, Weiqi Jin und Jiaan Xue. „Three-Dimensional Reconstruction Method for Bionic Compound-Eye System Based on MVSNet Network“. Electronics 11, Nr. 11 (05.06.2022): 1790. http://dx.doi.org/10.3390/electronics11111790.
Der volle Inhalt der QuelleMakov, S., A. Minaev, A. Nikitin, V. Voronin, E. Semenishchev und V. Marchuk. „Feature representation learning by sparse neural network for multi-camera person re-identification“. Electronic Imaging 2017, Nr. 13 (29.01.2017): 149–55. http://dx.doi.org/10.2352/issn.2470-1173.2017.13.ipas-211.
Der volle Inhalt der QuelleMendez, Javier, Miguel Molina, Noel Rodriguez, Manuel P. Cuellar und Diego P. Morales. „Camera-LiDAR Multi-Level Sensor Fusion for Target Detection at the Network Edge“. Sensors 21, Nr. 12 (09.06.2021): 3992. http://dx.doi.org/10.3390/s21123992.
Der volle Inhalt der QuelleLinok, S. A., und D. A. Yudin. „Influence of Neural Network Receptive Field on Monocular Depth and Ego-Motion Estimation“. Optical Memory and Neural Networks 32, S2 (28.11.2023): S206—S213. http://dx.doi.org/10.3103/s1060992x23060103.
Der volle Inhalt der Quelle