Zeitschriftenartikel zum Thema „Multi-Kinect“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Multi-Kinect" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Xinchen Ye, Jingyu Yang, Hao Huang, Chunping Hou und Yao Wang. „Computational Multi-View Imaging with Kinect“. IEEE Transactions on Broadcasting 60, Nr. 3 (September 2014): 540–54. http://dx.doi.org/10.1109/tbc.2014.2345931.
Der volle Inhalt der QuelleRahman, Md Wasiur, Fatema Tuz Zohra und Marina L. Gavrilova. „Score Level and Rank Level Fusion for Kinect-Based Multi-Modal Biometric System“. Journal of Artificial Intelligence and Soft Computing Research 9, Nr. 3 (01.07.2019): 167–76. http://dx.doi.org/10.2478/jaiscr-2019-0001.
Der volle Inhalt der QuelleAbdurrahman, Muhammad Rijal, Tatacipta Dirgantara, Sandro Mihradi und Andi Isra Mahyuddin. „Validity of Kinect for Assessment of Joint Motion during Gait“. Applied Mechanics and Materials 660 (Oktober 2014): 921–26. http://dx.doi.org/10.4028/www.scientific.net/amm.660.921.
Der volle Inhalt der QuelleAlbert, Justin Amadeus, Victor Owolabi, Arnd Gebel, Clemens Markus Brahms, Urs Granacher und Bert Arnrich. „Evaluation of the Pose Tracking Performance of the Azure Kinect and Kinect v2 for Gait Analysis in Comparison with a Gold Standard: A Pilot Study“. Sensors 20, Nr. 18 (08.09.2020): 5104. http://dx.doi.org/10.3390/s20185104.
Der volle Inhalt der QuelleRafiuzzaman, Mohammad, und Cemil Öz. „Distance Physical Rehabilitation System Framework with Multi-Kinect Motion Captured Data“. Communications on Applied Electronics 1, Nr. 5 (25.04.2015): 29–39. http://dx.doi.org/10.5120/cae-1558.
Der volle Inhalt der QuelleKim, Bonghyun, und Sangyoung Oh. „Design of Multi-Screen Digital Experience Contents System Based on Kinect“. Advanced Science Letters 23, Nr. 3 (01.03.2017): 1581–84. http://dx.doi.org/10.1166/asl.2017.8638.
Der volle Inhalt der QuelleLin, Xizhou, Fei Yuan und En Cheng. „Kinect depth image enhancement with adaptive joint multi-lateral discrete filters“. Journal of Difference Equations and Applications 23, Nr. 1-2 (26.09.2016): 350–66. http://dx.doi.org/10.1080/10236198.2016.1235159.
Der volle Inhalt der QuelleRausch, Johannes, Andreas Maier, Rebecca Fahrig, Jang-Hwan Choi, Waldo Hinshaw, Frank Schebesch, Sven Haase, Jakob Wasza, Joachim Hornegger und Christian Riess. „Kinect-Based Correction of Overexposure Artifacts in Knee Imaging with C-Arm CT Systems“. International Journal of Biomedical Imaging 2016 (2016): 1–15. http://dx.doi.org/10.1155/2016/2502486.
Der volle Inhalt der QuelleAlimasi, Alimina, Hongchen Liu und Chengang Lyu. „Low Frequency Vibration Visual Monitoring System Based on Multi-Modal 3DCNN-ConvLSTM“. Sensors 20, Nr. 20 (17.10.2020): 5872. http://dx.doi.org/10.3390/s20205872.
Der volle Inhalt der QuelleSeddik, Bassem, Sami Gazzah und Najoua Essoukri Ben Amara. „Human‐action recognition using a multi‐layered fusion scheme of Kinect modalities“. IET Computer Vision 11, Nr. 7 (18.08.2017): 530–40. http://dx.doi.org/10.1049/iet-cvi.2016.0326.
Der volle Inhalt der QuelleVijayanagar, Krishna Rao, Maziar Loghman und Joohee Kim. „Real-Time Refinement of Kinect Depth Maps using Multi-Resolution Anisotropic Diffusion“. Mobile Networks and Applications 19, Nr. 3 (01.09.2013): 414–25. http://dx.doi.org/10.1007/s11036-013-0458-7.
Der volle Inhalt der QuelleKim, Da-won, Hee-jo Nam, Seung-yeon Lee, You-kyung Haam, O.-k. Seo und HyungJune Lee. „Multi-User Home-Training Healthcare System Using Kinect Sensor and Wearable Devices“. Journal of Korean Institute of Communications and Information Sciences 44, Nr. 4 (30.04.2019): 719–27. http://dx.doi.org/10.7840/kics.2019.44.4.719.
Der volle Inhalt der QuelleIbánez, José de Jesús Luis González, und Alf Inge Wang. „Learning Recycling from Playing a Kinect Game“. International Journal of Game-Based Learning 5, Nr. 3 (Juli 2015): 25–44. http://dx.doi.org/10.4018/ijgbl.2015070103.
Der volle Inhalt der QuelleMateo, Fernando, Emilio Soria-Olivas, Juan Carrasco, Santiago Bonanad, Felipe Querol und Sofía Pérez-Alenda. „HemoKinect: A Microsoft Kinect V2 Based Exergaming Software to Supervise Physical Exercise of Patients with Hemophilia“. Sensors 18, Nr. 8 (26.07.2018): 2439. http://dx.doi.org/10.3390/s18082439.
Der volle Inhalt der QuelleAkbari, Ghasem, Mohammad Nikkhoo, Lizhen Wang, Carl P. C. Chen, Der-Sheng Han, Yang-Hua Lin, Hung-Bin Chen und Chih-Hsiu Cheng. „Frailty Level Classification of the Community Elderly Using Microsoft Kinect-Based Skeleton Pose: A Machine Learning Approach“. Sensors 21, Nr. 12 (10.06.2021): 4017. http://dx.doi.org/10.3390/s21124017.
Der volle Inhalt der QuelleChang, M., und Z. Kang. „AN INDOOR SLAM METHOD BASED ON KINECT AND MULTI-FEATURE EXTENDED INFORMATION FILTER“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-2/W7 (12.09.2017): 327–32. http://dx.doi.org/10.5194/isprs-archives-xlii-2-w7-327-2017.
Der volle Inhalt der QuelleSHIMURA, Kouyou, Yoshinobu ANDO, Takashi YOSHIMI und Makoto MIZUKAWA. „2P1-P22 Development of Multi-Kinect Sensor Targeted to Guidance Robot(Communication Robot)“. Proceedings of JSME annual Conference on Robotics and Mechatronics (Robomec) 2013 (2013): _2P1—P22_1—_2P1—P22_2. http://dx.doi.org/10.1299/jsmermd.2013._2p1-p22_1.
Der volle Inhalt der QuelleSevrin, L., N. Noury, N. Abouchi, F. Jumel, B. Massot und J. Saraydaryan. „Preliminary results on algorithms for multi-kinect trajectory fusion in a living lab“. IRBM 36, Nr. 6 (November 2015): 361–66. http://dx.doi.org/10.1016/j.irbm.2015.10.003.
Der volle Inhalt der QuelleLachat, E., T. Landes und P. Grussenmeyer. „COMBINATION OF TLS POINT CLOUDS AND 3D DATA FROM KINECT V2 SENSOR TO COMPLETE INDOOR MODELS“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLI-B5 (16.06.2016): 659–66. http://dx.doi.org/10.5194/isprsarchives-xli-b5-659-2016.
Der volle Inhalt der QuelleLachat, E., T. Landes und P. Grussenmeyer. „COMBINATION OF TLS POINT CLOUDS AND 3D DATA FROM KINECT V2 SENSOR TO COMPLETE INDOOR MODELS“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLI-B5 (16.06.2016): 659–66. http://dx.doi.org/10.5194/isprs-archives-xli-b5-659-2016.
Der volle Inhalt der QuelleSanchez, Jesus Adrian Garcia, Kazuhiro Ohnishi, Atsushi Shibata, Fangyan Dong und Kaoru Hirota. „Deep Level Emotion Understanding Using Customized Knowledge for Human-Robot Communication“. Journal of Advanced Computational Intelligence and Intelligent Informatics 19, Nr. 1 (20.01.2015): 91–99. http://dx.doi.org/10.20965/jaciii.2015.p0091.
Der volle Inhalt der QuelleWu, Yingnian, Guojun Yang und Lin Zhang. „Mouse simulation in human–machine interface using kinect and 3 gear systems“. International Journal of Modeling, Simulation, and Scientific Computing 05, Nr. 04 (29.09.2014): 1450015. http://dx.doi.org/10.1142/s1793962314500159.
Der volle Inhalt der QuelleKim, Minseok, und Jae Yeol Lee. „Interactive lens through smartphones for supporting level-of-detailed views in a public display“. Journal of Computational Design and Engineering 2, Nr. 2 (07.01.2015): 73–78. http://dx.doi.org/10.1016/j.jcde.2014.12.001.
Der volle Inhalt der QuelleMat Sanusi, Khaleel Asyraaf, Daniele Di Mitri, Bibeg Limbu und Roland Klemke. „Table Tennis Tutor: Forehand Strokes Classification Based on Multimodal Data and Neural Networks“. Sensors 21, Nr. 9 (30.04.2021): 3121. http://dx.doi.org/10.3390/s21093121.
Der volle Inhalt der QuelleJun, Chanmo, Ju Yeon Lee und Sang Do Noh. „A Study on Modeling Automation of Human Engineering Simulation Using Multi Kinect Depth Cameras“. Transactions of the Society of CAD/CAM Engineers 21, Nr. 1 (01.03.2016): 9–19. http://dx.doi.org/10.7315/cadcam.2016.009.
Der volle Inhalt der QuelleLiu, Shenglan, Muxin Sun, Xiaodong Huang, Wei Wang und Feilong Wang. „Feature fusion using Extended Jaccard Graph and word embedding for robot“. Assembly Automation 37, Nr. 3 (07.08.2017): 278–84. http://dx.doi.org/10.1108/aa-01-2017-005.
Der volle Inhalt der QuelleWang, Sen, Runxiao Wang, Xinxin Zuo und Weiwei Yu. „Real-Time Artifact Compensation for Depth Images of Multi-Frequency ToF“. Xibei Gongye Daxue Xuebao/Journal of Northwestern Polytechnical University 37, Nr. 1 (Februar 2019): 152–59. http://dx.doi.org/10.1051/jnwpu/20193710152.
Der volle Inhalt der QuelleDiao, Xiaolei, Xiaoqiang Li und Chen Huang. „Multi-Term Attention Networks for Skeleton-Based Action Recognition“. Applied Sciences 10, Nr. 15 (31.07.2020): 5326. http://dx.doi.org/10.3390/app10155326.
Der volle Inhalt der QuelleOliver, Miguel, Francisco Montero, José Pascual Molina, Pascual González und Antonio Fernández-Caballero. „Multi-camera systems for rehabilitation therapies: a study of the precision of Microsoft Kinect sensors“. Frontiers of Information Technology & Electronic Engineering 17, Nr. 4 (April 2016): 348–64. http://dx.doi.org/10.1631/fitee.1500347.
Der volle Inhalt der QuelleGeerse, Daphne J., Bert H. Coolen und Melvyn Roerdink. „Kinematic Validation of a Multi-Kinect v2 Instrumented 10-Meter Walkway for Quantitative Gait Assessments“. PLOS ONE 10, Nr. 10 (13.10.2015): e0139913. http://dx.doi.org/10.1371/journal.pone.0139913.
Der volle Inhalt der QuelleKuang, Yiqun, Hong Cheng, Jiasheng Hao, Ruimeng Xie und Fang Cui. „Multi-modal gesture recognition with voting-based dynamic time warping“. International Journal of Advanced Robotic Systems 16, Nr. 6 (01.11.2019): 172988141989239. http://dx.doi.org/10.1177/1729881419892398.
Der volle Inhalt der QuelleSalau, Jennifer, Jan H. Haas, Wolfgang Junge und Georg Thaller. „Extrinsic calibration of a multi-Kinect camera scanning passage for measuring functional traits in dairy cows“. Biosystems Engineering 151 (November 2016): 409–24. http://dx.doi.org/10.1016/j.biosystemseng.2016.10.008.
Der volle Inhalt der QuelleEssmaeel, Kyis, Cyrille Migniot, Albert Dipanda, Luigi Gallo, Ernesto Damiani und Giuseppe De Pietro. „A new 3D descriptor for human classification: application for human detection in a multi-kinect system“. Multimedia Tools and Applications 78, Nr. 16 (17.04.2019): 22479–508. http://dx.doi.org/10.1007/s11042-019-7568-6.
Der volle Inhalt der QuelleSalous, S., J. Newton, L. Leroy und S. S. Chendeb. „Dynamic Sensor Selection Based on Joint Data Quality in the Context of a Multi-Kinect Module inside the CAVE “Le SAS”“. International Journal of Computer Theory and Engineering 8, Nr. 6 (Dezember 2016): 471–74. http://dx.doi.org/10.7763/ijcte.2016.v8.1091.
Der volle Inhalt der QuelleZeng, Ming, Hong Lin Ren, Qing Hao Meng, Chang Wei Chen und Shu Gen Ma. „Motion Comparison Method Combining Segmented Multi-Joint Line Graphs with the SIFT Matching Technique“. Applied Mechanics and Materials 599-601 (August 2014): 1566–70. http://dx.doi.org/10.4028/www.scientific.net/amm.599-601.1566.
Der volle Inhalt der QuelleComeras-Chueca, Cristina, Lorena Villalba-Heredia, Marcos Pérez-Llera, Gabriel Lozano-Berges, Jorge Marín-Puyalto, Germán Vicente-Rodríguez, Ángel Matute-Llorente, José A. Casajús und Alejandro González-Agüero. „Assessment of Active Video Games’ Energy Expenditure in Children with Overweight and Obesity and Differences by Gender“. International Journal of Environmental Research and Public Health 17, Nr. 18 (15.09.2020): 6714. http://dx.doi.org/10.3390/ijerph17186714.
Der volle Inhalt der QuelleTsai, G. J., K. W. Chiang, C. H. Chu, Y. L. Chen, N. El-Sheimy und A. Habib. „THE PERFORMANCE ANALYSIS OF AN INDOOR MOBILE MAPPING SYSTEM WITH RGB-D SENSOR“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XL-1/W4 (26.08.2015): 183–88. http://dx.doi.org/10.5194/isprsarchives-xl-1-w4-183-2015.
Der volle Inhalt der QuelleSun, Xinyao, Anup Basu und Irene Cheng. „Multi-Sensor Motion Fusion Using Deep Neural Network Learning“. International Journal of Multimedia Data Engineering and Management 8, Nr. 4 (Oktober 2017): 1–18. http://dx.doi.org/10.4018/ijmdem.2017100101.
Der volle Inhalt der QuelleRosas-Cervantes, Vinicio Alejandro, Quoc-Dong Hoang, Soon-Geul Lee und Jae-Hwan Choi. „Multi-Robot 2.5D Localization and Mapping Using a Monte Carlo Algorithm on a Multi-Level Surface“. Sensors 21, Nr. 13 (04.07.2021): 4588. http://dx.doi.org/10.3390/s21134588.
Der volle Inhalt der QuelleSalau, J., J. H. Haas, G. Thaller, M. Leisen und W. Junge. „Developing a multi-Kinect-system for monitoring in dairy cows: object recognition and surface analysis using wavelets“. Animal 10, Nr. 9 (2016): 1513–24. http://dx.doi.org/10.1017/s1751731116000021.
Der volle Inhalt der QuelleStrbac, Matija, Nebojsa Malesevic, Radoje Cobeljic und Laszlo Schwirtlich. „Feedback control of the forearm movement of tetraplegic patient based on microsoft kinect and multi-pad electrodes“. Journal of Automatic Control 21, Nr. 1 (2013): 7–11. http://dx.doi.org/10.2298/jac1301007s.
Der volle Inhalt der QuelleGao, Mingjing, Min Yu, Hang Guo und Yuan Xu. „Mobile Robot Indoor Positioning Based on a Combination of Visual and Inertial Sensors“. Sensors 19, Nr. 8 (13.04.2019): 1773. http://dx.doi.org/10.3390/s19081773.
Der volle Inhalt der QuelleSalau, Jennifer, Jan H. Haas, Wolfgang Junge und Georg Thaller. „A multi-Kinect cow scanning system: Calculating linear traits from manually marked recordings of Holstein-Friesian dairy cows“. Biosystems Engineering 157 (Mai 2017): 92–98. http://dx.doi.org/10.1016/j.biosystemseng.2017.03.001.
Der volle Inhalt der QuellePu, Haitao, Jian Lian und Mingqu Fan. „Automatic Recognition of Flock Behavior of Chickens with Convolutional Neural Network and Kinect Sensor“. International Journal of Pattern Recognition and Artificial Intelligence 32, Nr. 07 (14.03.2018): 1850023. http://dx.doi.org/10.1142/s0218001418500234.
Der volle Inhalt der QuelleKim, Yejin, und . „Interactive Dance Guidance Using Example Motions“. International Journal of Engineering & Technology 7, Nr. 3.34 (01.09.2018): 521. http://dx.doi.org/10.14419/ijet.v7i3.34.19372.
Der volle Inhalt der QuelleLiu, Xueping, Yibo Li und Qingjun Wang. „Multi-View Hierarchical Bidirectional Recurrent Neural Network for Depth Video Sequence Based Action Recognition“. International Journal of Pattern Recognition and Artificial Intelligence 32, Nr. 10 (20.06.2018): 1850033. http://dx.doi.org/10.1142/s0218001418500337.
Der volle Inhalt der QuelleSalau, Jennifer, Jan H. Haas, Wolfgang Junge und Georg Thaller. „Automated calculation of udder depth and rear leg angle in Holstein-Friesian cows using a multi-Kinect cow scanning system“. Biosystems Engineering 160 (August 2017): 154–69. http://dx.doi.org/10.1016/j.biosystemseng.2017.06.006.
Der volle Inhalt der QuelleSetyonugroho, Adityo, James Purnama und Maulahikmah Galinium. „Multi Modal Gender Recognition for Gender-Based Marketing Using Depth Camera“. Journal of Applied Information, Communication and Technology 2, Nr. 2 (13.05.2015): 45–52. http://dx.doi.org/10.33555/ejaict.v2i2.87.
Der volle Inhalt der QuelleAdduci, M., K. Amplianitis und R. Reulke. „A Quality Evaluation of Single and Multiple Camera Calibration Approaches for an Indoor Multi Camera Tracking System“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XL-5 (05.06.2014): 9–15. http://dx.doi.org/10.5194/isprsarchives-xl-5-9-2014.
Der volle Inhalt der QuelleSalau, Jennifer, Jan Henning Haas, Wolfgang Junge und Georg Thaller. „Determination of Body Parts in Holstein Friesian Cows Comparing Neural Networks and k Nearest Neighbour Classification“. Animals 11, Nr. 1 (29.12.2020): 50. http://dx.doi.org/10.3390/ani11010050.
Der volle Inhalt der Quelle