Zeitschriftenartikel zum Thema „Gesture Synthesis“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Gesture Synthesis" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Pang, Kunkun, Dafei Qin, Yingruo Fan, Julian Habekost, Takaaki Shiratori, Junichi Yamagishi und Taku Komura. „BodyFormer: Semantics-guided 3D Body Gesture Synthesis with Transformer“. ACM Transactions on Graphics 42, Nr. 4 (26.07.2023): 1–12. http://dx.doi.org/10.1145/3592456.
Der volle Inhalt der QuelleDeng, Linhai. „FPGA-based gesture recognition and voice interaction“. Applied and Computational Engineering 40, Nr. 1 (21.02.2024): 174–79. http://dx.doi.org/10.54254/2755-2721/40/20230646.
Der volle Inhalt der QuelleAo, Tenglong, Qingzhe Gao, Yuke Lou, Baoquan Chen und Libin Liu. „Rhythmic Gesticulator“. ACM Transactions on Graphics 41, Nr. 6 (30.11.2022): 1–19. http://dx.doi.org/10.1145/3550454.3555435.
Der volle Inhalt der QuelleYang, Qi, und Georg Essl. „Evaluating Gesture-Augmented Keyboard Performance“. Computer Music Journal 38, Nr. 4 (Dezember 2014): 68–79. http://dx.doi.org/10.1162/comj_a_00277.
Der volle Inhalt der QuelleSouza, Fernando, und Adolfo Maia Jr. „A Mathematical, Graphical and Visual Approach to Granular Synthesis Composition“. Revista Vórtex 9, Nr. 2 (10.12.2021): 1–27. http://dx.doi.org/10.33871/23179937.2021.9.2.4.
Der volle Inhalt der QuelleBouënard, Alexandre, Marcelo M. M. Wanderley und Sylvie Gibet. „Gesture Control of Sound Synthesis: Analysis and Classification of Percussion Gestures“. Acta Acustica united with Acustica 96, Nr. 4 (01.07.2010): 668–77. http://dx.doi.org/10.3813/aaa.918321.
Der volle Inhalt der QuelleHe, Zhiyuan. „Automatic Quality Assessment of Speech-Driven Synthesized Gestures“. International Journal of Computer Games Technology 2022 (16.03.2022): 1–11. http://dx.doi.org/10.1155/2022/1828293.
Der volle Inhalt der QuelleXu, Zunnan, Yachao Zhang, Sicheng Yang, Ronghui Li und Xiu Li. „Chain of Generation: Multi-Modal Gesture Synthesis via Cascaded Conditional Control“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 6 (24.03.2024): 6387–95. http://dx.doi.org/10.1609/aaai.v38i6.28458.
Der volle Inhalt der QuelleFernández-Baena, Adso, Raúl Montaño, Marc Antonijoan, Arturo Roversi, David Miralles und Francesc Alías. „Gesture synthesis adapted to speech emphasis“. Speech Communication 57 (Februar 2014): 331–50. http://dx.doi.org/10.1016/j.specom.2013.06.005.
Der volle Inhalt der QuelleNakano, Atsushi, und Junichi Hoshino. „Composite conversation gesture synthesis using layered planning“. Systems and Computers in Japan 38, Nr. 10 (2007): 58–68. http://dx.doi.org/10.1002/scj.20532.
Der volle Inhalt der QuelleArfib, D., J. M. Couturier, L. Kessous und V. Verfaille. „Strategies of mapping between gesture data and synthesis model parameters using perceptual spaces“. Organised Sound 7, Nr. 2 (August 2002): 127–44. http://dx.doi.org/10.1017/s1355771802002054.
Der volle Inhalt der QuelleDang, Xiaochao, Wenze Ke, Zhanjun Hao, Peng Jin, Han Deng und Ying Sheng. „mm-TPG: Traffic Policemen Gesture Recognition Based on Millimeter Wave Radar Point Cloud“. Sensors 23, Nr. 15 (31.07.2023): 6816. http://dx.doi.org/10.3390/s23156816.
Der volle Inhalt der QuelleValencia, C. Roncancio, J. Gomez Garcia-Bermejo und E. Zalama Casanova. „Combined Gesture-Speech Recognition and Synthesis Using Neural Networks“. IFAC Proceedings Volumes 41, Nr. 2 (2008): 2968–73. http://dx.doi.org/10.3182/20080706-5-kr-1001.00499.
Der volle Inhalt der QuelleMontgermont, Nicolas, Benoit Fabre und Patricio De La Cuadra. „Gesture synthesis: basic control of a flute physical model“. Journal of the Acoustical Society of America 123, Nr. 5 (Mai 2008): 3797. http://dx.doi.org/10.1121/1.2935477.
Der volle Inhalt der QuelleAlexanderson, Simon, Gustav Eje Henter, Taras Kucherenko und Jonas Beskow. „Style‐Controllable Speech‐Driven Gesture Synthesis Using Normalising Flows“. Computer Graphics Forum 39, Nr. 2 (Mai 2020): 487–96. http://dx.doi.org/10.1111/cgf.13946.
Der volle Inhalt der QuelleMo, Dong-Han, Chuen-Lin Tien, Yu-Ling Yeh, Yi-Ru Guo, Chern-Sheng Lin, Chih-Chin Chen und Che-Ming Chang. „Design of Digital-Twin Human-Machine Interface Sensor with Intelligent Finger Gesture Recognition“. Sensors 23, Nr. 7 (27.03.2023): 3509. http://dx.doi.org/10.3390/s23073509.
Der volle Inhalt der QuelleYu, Shi Cai, und Rong Lu. „Research of Sign Language Synthesis Based on VRML“. Applied Mechanics and Materials 347-350 (August 2013): 2631–35. http://dx.doi.org/10.4028/www.scientific.net/amm.347-350.2631.
Der volle Inhalt der QuelleLANZALONE, SILVIA. „Hidden grids: paths of expressive gesture between instruments, music and dance“. Organised Sound 5, Nr. 1 (April 2000): 17–26. http://dx.doi.org/10.1017/s1355771800001047.
Der volle Inhalt der QuelleRyumin, Dmitry, Ildar Kagirov, Alexandr Axyonov, Nikita Pavlyuk, Anton Saveliev, Irina Kipyatkova, Milos Zelezny, Iosif Mporas und Alexey Karpov. „A Multimodal User Interface for an Assistive Robotic Shopping Cart“. Electronics 9, Nr. 12 (08.12.2020): 2093. http://dx.doi.org/10.3390/electronics9122093.
Der volle Inhalt der QuelleK, Kavyasree. „Hand Glide: Gesture-Controlled Virtual Mouse with Voice Assistant“. International Journal for Research in Applied Science and Engineering Technology 12, Nr. 4 (30.04.2024): 5470–76. http://dx.doi.org/10.22214/ijraset.2024.61178.
Der volle Inhalt der QuelleRasamimanana, Nicolas, Florian Kaiser und Frederic Bevilacqua. „Perspectives on Gesture–Sound Relationships Informed from Acoustic Instrument Studies“. Organised Sound 14, Nr. 2 (29.06.2009): 208–16. http://dx.doi.org/10.1017/s1355771809000314.
Der volle Inhalt der QuelleMARTIN, JEAN-CLAUDE, RADOSLAW NIEWIADOMSKI, LAURENCE DEVILLERS, STEPHANIE BUISINE und CATHERINE PELACHAUD. „MULTIMODAL COMPLEX EMOTIONS: GESTURE EXPRESSIVITY AND BLENDED FACIAL EXPRESSIONS“. International Journal of Humanoid Robotics 03, Nr. 03 (September 2006): 269–91. http://dx.doi.org/10.1142/s0219843606000825.
Der volle Inhalt der QuelleZhou, Yuxuan, Huangxun Chen, Chenyu Huang und Qian Zhang. „WiAdv“. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 6, Nr. 2 (04.07.2022): 1–25. http://dx.doi.org/10.1145/3534618.
Der volle Inhalt der QuelleKetabdar, Hamed, Amin Haji-Abolhassani und Mehran Roshandel. „MagiThings“. International Journal of Mobile Human Computer Interaction 5, Nr. 3 (Juli 2013): 23–41. http://dx.doi.org/10.4018/jmhci.2013070102.
Der volle Inhalt der QuelleThoret, Etienne, Mitsuko Aramaki, Charles Gondre, Sølvi Ystad und Richard Kronland-Martinet. „Eluding the Physical Constraints in a Nonlinear Interaction Sound Synthesis Model for Gesture Guidance“. Applied Sciences 6, Nr. 7 (30.06.2016): 192. http://dx.doi.org/10.3390/app6070192.
Der volle Inhalt der QuelleCamurri, Antonio, Giovanni De Poli, Anders Friberg, Marc Leman und Gualtiero Volpe. „The MEGA Project: Analysis and Synthesis of Multisensory Expressive Gesture in Performing Art Applications“. Journal of New Music Research 34, Nr. 1 (März 2005): 5–21. http://dx.doi.org/10.1080/09298210500123895.
Der volle Inhalt der QuelleBouënard, Alexandre, Marcelo M. Wanderley, Sylvie Gibet und Fabrice Marandola. „Virtual Gesture Control and Synthesis of Music Performances: Qualitative Evaluation of Synthesized Timpani Exercises“. Computer Music Journal 35, Nr. 3 (September 2011): 57–72. http://dx.doi.org/10.1162/comj_a_00069.
Der volle Inhalt der QuelleDeinega, Volodymyr. „Influence of Timbral Sound Coloring on the Evolution of the Conductor's Gesture“. Часопис Національної музичної академії України ім.П.І.Чайковського, Nr. 3(60) (27.09.2023): 85–97. http://dx.doi.org/10.31318/2414-052x.3(60).2023.296801.
Der volle Inhalt der QuelleNichols, Charles. „The vBow: a virtual violin bow controller for mapping gesture to synthesis with haptic feedback“. Organised Sound 7, Nr. 2 (August 2002): 215–20. http://dx.doi.org/10.1017/s135577180200211x.
Der volle Inhalt der QuellePhukon, Debasish. „A Deep Learning Approach for ASL Recognition and Text-to-Speech Synthesis using CNN“. International Journal for Research in Applied Science and Engineering Technology 11, Nr. 8 (31.08.2023): 2135–43. http://dx.doi.org/10.22214/ijraset.2023.55528.
Der volle Inhalt der QuelleHarrison, Reginald Langford, Stefan Bilbao, James Perry und Trevor Wishart. „An Environment for Physical Modeling of Articulated Brass Instruments“. Computer Music Journal 39, Nr. 4 (Dezember 2015): 80–95. http://dx.doi.org/10.1162/comj_a_00332.
Der volle Inhalt der QuellePolykretis, Ioannis, Aditi Patil, Mridul Aanjaneya und Konstantinos Michmizos. „An Interactive Framework for Visually Realistic 3D Motion Synthesis using Evolutionarily-trained Spiking Neural Networks“. Proceedings of the ACM on Computer Graphics and Interactive Techniques 6, Nr. 1 (12.05.2023): 1–19. http://dx.doi.org/10.1145/3585509.
Der volle Inhalt der QuelleWołk, Krzysztof, Agnieszka Wołk und Wojciech Glinkowski. „A Cross-Lingual Mobile Medical Communication System Prototype for Foreigners and Subjects with Speech, Hearing, and Mental Disabilities Based on Pictograms“. Computational and Mathematical Methods in Medicine 2017 (2017): 1–9. http://dx.doi.org/10.1155/2017/4306416.
Der volle Inhalt der QuelleQureshi, Regula Burckhardt. „Musical Gesture and Extra-Musical Meaning: Words and Music in the Urdu Ghazal“. Journal of the American Musicological Society 43, Nr. 3 (1990): 457–97. http://dx.doi.org/10.2307/831743.
Der volle Inhalt der QuelleMoore, Carol-Lynne. „God geometricizes (and so does Laban)“. Dance, Movement & Spiritualities 10, Nr. 1 (01.10.2023): 73–90. http://dx.doi.org/10.1386/dmas_00047_1.
Der volle Inhalt der QuelleHuang, Chih-Fang, und Wei-Po Nien. „A Study of the Integrated Automated Emotion Music with the Motion Gesture Synthesis via ZigBee Wireless Communication“. International Journal of Distributed Sensor Networks 9, Nr. 11 (Januar 2013): 645961. http://dx.doi.org/10.1155/2013/645961.
Der volle Inhalt der QuelleLee, Donghee, Dayoung You, Gyoungryul Cho, Hoirim Lee, Eunsoo Shin, Taehwan Choi, Sunghan Kim, Sangmin Lee und Woochul Nam. „EMG-based hand gesture classifier robust to daily variation: Recursive domain adversarial neural network with data synthesis“. Biomedical Signal Processing and Control 88 (Februar 2024): 105600. http://dx.doi.org/10.1016/j.bspc.2023.105600.
Der volle Inhalt der QuelleAlexanderson, Simon, Rajmund Nagy, Jonas Beskow und Gustav Eje Henter. „Listen, Denoise, Action! Audio-Driven Motion Synthesis with Diffusion Models“. ACM Transactions on Graphics 42, Nr. 4 (26.07.2023): 1–20. http://dx.doi.org/10.1145/3592458.
Der volle Inhalt der QuelleLi, Yuerong, Xingce Wang, Zhongke Wu, Guoshuai Li, Shaolong Liu und Mingquan Zhou. „Flexible indoor scene synthesis based on multi-object particle swarm intelligence optimization and user intentions with 3D gesture“. Computers & Graphics 93 (Dezember 2020): 1–12. http://dx.doi.org/10.1016/j.cag.2020.08.002.
Der volle Inhalt der QuelleVan Nort, Doug, Marcelo M. Wanderley und Philippe Depalle. „Mapping Control Structures for Sound Synthesis: Functional and Topological Perspectives“. Computer Music Journal 38, Nr. 3 (September 2014): 6–22. http://dx.doi.org/10.1162/comj_a_00253.
Der volle Inhalt der QuelleSaafi, Houssem, Med Amine Laribi und Said Zeghloul. „Design of a 4-DoF (degree of freedom) hybrid-haptic device for laparoscopic surgery“. Mechanical Sciences 12, Nr. 1 (12.02.2021): 155–64. http://dx.doi.org/10.5194/ms-12-155-2021.
Der volle Inhalt der QuelleLin, Xu, und Gao Wen. „Human-Computer Chinese Sign Language Interaction System“. International Journal of Virtual Reality 4, Nr. 3 (01.01.2000): 82–92. http://dx.doi.org/10.20870/ijvr.2000.4.3.2651.
Der volle Inhalt der QuelleChopparapu, SaiTeja, und Joseph Beatrice Seventline. „An Efficient Multi-modal Facial Gesture-based Ensemble Classification and Reaction to Sound Framework for Large Video Sequences“. Engineering, Technology & Applied Science Research 13, Nr. 4 (09.08.2023): 11263–70. http://dx.doi.org/10.48084/etasr.6087.
Der volle Inhalt der QuelleDu, Chuan, Lei Zhang, Xiping Sun, Junxu Wang und Jialian Sheng. „Enhanced Multi-Channel Feature Synthesis for Hand Gesture Recognition Based on CNN With a Channel and Spatial Attention Mechanism“. IEEE Access 8 (2020): 144610–20. http://dx.doi.org/10.1109/access.2020.3010063.
Der volle Inhalt der QuelleChiu, Jih-Ching, Guan-Yi Lee, Chih-Yang Hsieh und Qing-You Lin. „Design and Implementation of Nursing-Secure-Care System with mmWave Radar by YOLO-v4 Computing Methods“. Applied System Innovation 7, Nr. 1 (19.01.2024): 10. http://dx.doi.org/10.3390/asi7010010.
Der volle Inhalt der QuelleMovchan, Larisa Anatol'evna. „The specifics of teaching the techniques of conducting gesture in the "Choral conducting" classroom“. PHILHARMONICA. International Music Journal, Nr. 1 (Januar 2024): 18–32. http://dx.doi.org/10.7256/2453-613x.2024.1.69898.
Der volle Inhalt der QuelleDesvages, Charlotte, und Stefan Bilbao. „Two-Polarisation Physical Model of Bowed Strings with Nonlinear Contact and Friction Forces, and Application to Gesture-Based Sound Synthesis“. Applied Sciences 6, Nr. 5 (10.05.2016): 135. http://dx.doi.org/10.3390/app6050135.
Der volle Inhalt der QuelleRamos Flores, Cristohper. „The bodyless sound and the re-embodied sound: an expansion of the sonic body of the instrument“. Ricercare, Nr. 15 (21.08.2022): 30–58. http://dx.doi.org/10.17230/ricercare.2022.15.2.
Der volle Inhalt der QuelleJokisch, Oliver, und Markus Huber. „Advances in the development of a cognitive user interface“. MATEC Web of Conferences 161 (2018): 01003. http://dx.doi.org/10.1051/matecconf/201816101003.
Der volle Inhalt der QuelleMagnenat-Thalmann, Nadia, und Arjan Egges. „Interactive Virtual Humans in Real-Time Virtual Environment“. International Journal of Virtual Reality 5, Nr. 2 (01.01.2006): 15–24. http://dx.doi.org/10.20870/ijvr.2006.5.2.2682.
Der volle Inhalt der Quelle