Artykuły w czasopismach na temat „Gesture Synthesis”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Gesture Synthesis”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Pang, Kunkun, Dafei Qin, Yingruo Fan, Julian Habekost, Takaaki Shiratori, Junichi Yamagishi i Taku Komura. "BodyFormer: Semantics-guided 3D Body Gesture Synthesis with Transformer". ACM Transactions on Graphics 42, nr 4 (26.07.2023): 1–12. http://dx.doi.org/10.1145/3592456.
Pełny tekst źródłaDeng, Linhai. "FPGA-based gesture recognition and voice interaction". Applied and Computational Engineering 40, nr 1 (21.02.2024): 174–79. http://dx.doi.org/10.54254/2755-2721/40/20230646.
Pełny tekst źródłaAo, Tenglong, Qingzhe Gao, Yuke Lou, Baoquan Chen i Libin Liu. "Rhythmic Gesticulator". ACM Transactions on Graphics 41, nr 6 (30.11.2022): 1–19. http://dx.doi.org/10.1145/3550454.3555435.
Pełny tekst źródłaYang, Qi, i Georg Essl. "Evaluating Gesture-Augmented Keyboard Performance". Computer Music Journal 38, nr 4 (grudzień 2014): 68–79. http://dx.doi.org/10.1162/comj_a_00277.
Pełny tekst źródłaSouza, Fernando, i Adolfo Maia Jr. "A Mathematical, Graphical and Visual Approach to Granular Synthesis Composition". Revista Vórtex 9, nr 2 (10.12.2021): 1–27. http://dx.doi.org/10.33871/23179937.2021.9.2.4.
Pełny tekst źródłaBouënard, Alexandre, Marcelo M. M. Wanderley i Sylvie Gibet. "Gesture Control of Sound Synthesis: Analysis and Classification of Percussion Gestures". Acta Acustica united with Acustica 96, nr 4 (1.07.2010): 668–77. http://dx.doi.org/10.3813/aaa.918321.
Pełny tekst źródłaHe, Zhiyuan. "Automatic Quality Assessment of Speech-Driven Synthesized Gestures". International Journal of Computer Games Technology 2022 (16.03.2022): 1–11. http://dx.doi.org/10.1155/2022/1828293.
Pełny tekst źródłaXu, Zunnan, Yachao Zhang, Sicheng Yang, Ronghui Li i Xiu Li. "Chain of Generation: Multi-Modal Gesture Synthesis via Cascaded Conditional Control". Proceedings of the AAAI Conference on Artificial Intelligence 38, nr 6 (24.03.2024): 6387–95. http://dx.doi.org/10.1609/aaai.v38i6.28458.
Pełny tekst źródłaFernández-Baena, Adso, Raúl Montaño, Marc Antonijoan, Arturo Roversi, David Miralles i Francesc Alías. "Gesture synthesis adapted to speech emphasis". Speech Communication 57 (luty 2014): 331–50. http://dx.doi.org/10.1016/j.specom.2013.06.005.
Pełny tekst źródłaNakano, Atsushi, i Junichi Hoshino. "Composite conversation gesture synthesis using layered planning". Systems and Computers in Japan 38, nr 10 (2007): 58–68. http://dx.doi.org/10.1002/scj.20532.
Pełny tekst źródłaArfib, D., J. M. Couturier, L. Kessous i V. Verfaille. "Strategies of mapping between gesture data and synthesis model parameters using perceptual spaces". Organised Sound 7, nr 2 (sierpień 2002): 127–44. http://dx.doi.org/10.1017/s1355771802002054.
Pełny tekst źródłaDang, Xiaochao, Wenze Ke, Zhanjun Hao, Peng Jin, Han Deng i Ying Sheng. "mm-TPG: Traffic Policemen Gesture Recognition Based on Millimeter Wave Radar Point Cloud". Sensors 23, nr 15 (31.07.2023): 6816. http://dx.doi.org/10.3390/s23156816.
Pełny tekst źródłaValencia, C. Roncancio, J. Gomez Garcia-Bermejo i E. Zalama Casanova. "Combined Gesture-Speech Recognition and Synthesis Using Neural Networks". IFAC Proceedings Volumes 41, nr 2 (2008): 2968–73. http://dx.doi.org/10.3182/20080706-5-kr-1001.00499.
Pełny tekst źródłaMontgermont, Nicolas, Benoit Fabre i Patricio De La Cuadra. "Gesture synthesis: basic control of a flute physical model". Journal of the Acoustical Society of America 123, nr 5 (maj 2008): 3797. http://dx.doi.org/10.1121/1.2935477.
Pełny tekst źródłaAlexanderson, Simon, Gustav Eje Henter, Taras Kucherenko i Jonas Beskow. "Style‐Controllable Speech‐Driven Gesture Synthesis Using Normalising Flows". Computer Graphics Forum 39, nr 2 (maj 2020): 487–96. http://dx.doi.org/10.1111/cgf.13946.
Pełny tekst źródłaMo, Dong-Han, Chuen-Lin Tien, Yu-Ling Yeh, Yi-Ru Guo, Chern-Sheng Lin, Chih-Chin Chen i Che-Ming Chang. "Design of Digital-Twin Human-Machine Interface Sensor with Intelligent Finger Gesture Recognition". Sensors 23, nr 7 (27.03.2023): 3509. http://dx.doi.org/10.3390/s23073509.
Pełny tekst źródłaYu, Shi Cai, i Rong Lu. "Research of Sign Language Synthesis Based on VRML". Applied Mechanics and Materials 347-350 (sierpień 2013): 2631–35. http://dx.doi.org/10.4028/www.scientific.net/amm.347-350.2631.
Pełny tekst źródłaLANZALONE, SILVIA. "Hidden grids: paths of expressive gesture between instruments, music and dance". Organised Sound 5, nr 1 (kwiecień 2000): 17–26. http://dx.doi.org/10.1017/s1355771800001047.
Pełny tekst źródłaRyumin, Dmitry, Ildar Kagirov, Alexandr Axyonov, Nikita Pavlyuk, Anton Saveliev, Irina Kipyatkova, Milos Zelezny, Iosif Mporas i Alexey Karpov. "A Multimodal User Interface for an Assistive Robotic Shopping Cart". Electronics 9, nr 12 (8.12.2020): 2093. http://dx.doi.org/10.3390/electronics9122093.
Pełny tekst źródłaK, Kavyasree. "Hand Glide: Gesture-Controlled Virtual Mouse with Voice Assistant". International Journal for Research in Applied Science and Engineering Technology 12, nr 4 (30.04.2024): 5470–76. http://dx.doi.org/10.22214/ijraset.2024.61178.
Pełny tekst źródłaRasamimanana, Nicolas, Florian Kaiser i Frederic Bevilacqua. "Perspectives on Gesture–Sound Relationships Informed from Acoustic Instrument Studies". Organised Sound 14, nr 2 (29.06.2009): 208–16. http://dx.doi.org/10.1017/s1355771809000314.
Pełny tekst źródłaMARTIN, JEAN-CLAUDE, RADOSLAW NIEWIADOMSKI, LAURENCE DEVILLERS, STEPHANIE BUISINE i CATHERINE PELACHAUD. "MULTIMODAL COMPLEX EMOTIONS: GESTURE EXPRESSIVITY AND BLENDED FACIAL EXPRESSIONS". International Journal of Humanoid Robotics 03, nr 03 (wrzesień 2006): 269–91. http://dx.doi.org/10.1142/s0219843606000825.
Pełny tekst źródłaZhou, Yuxuan, Huangxun Chen, Chenyu Huang i Qian Zhang. "WiAdv". Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 6, nr 2 (4.07.2022): 1–25. http://dx.doi.org/10.1145/3534618.
Pełny tekst źródłaKetabdar, Hamed, Amin Haji-Abolhassani i Mehran Roshandel. "MagiThings". International Journal of Mobile Human Computer Interaction 5, nr 3 (lipiec 2013): 23–41. http://dx.doi.org/10.4018/jmhci.2013070102.
Pełny tekst źródłaThoret, Etienne, Mitsuko Aramaki, Charles Gondre, Sølvi Ystad i Richard Kronland-Martinet. "Eluding the Physical Constraints in a Nonlinear Interaction Sound Synthesis Model for Gesture Guidance". Applied Sciences 6, nr 7 (30.06.2016): 192. http://dx.doi.org/10.3390/app6070192.
Pełny tekst źródłaCamurri, Antonio, Giovanni De Poli, Anders Friberg, Marc Leman i Gualtiero Volpe. "The MEGA Project: Analysis and Synthesis of Multisensory Expressive Gesture in Performing Art Applications". Journal of New Music Research 34, nr 1 (marzec 2005): 5–21. http://dx.doi.org/10.1080/09298210500123895.
Pełny tekst źródłaBouënard, Alexandre, Marcelo M. Wanderley, Sylvie Gibet i Fabrice Marandola. "Virtual Gesture Control and Synthesis of Music Performances: Qualitative Evaluation of Synthesized Timpani Exercises". Computer Music Journal 35, nr 3 (wrzesień 2011): 57–72. http://dx.doi.org/10.1162/comj_a_00069.
Pełny tekst źródłaDeinega, Volodymyr. "Influence of Timbral Sound Coloring on the Evolution of the Conductor's Gesture". Часопис Національної музичної академії України ім.П.І.Чайковського, nr 3(60) (27.09.2023): 85–97. http://dx.doi.org/10.31318/2414-052x.3(60).2023.296801.
Pełny tekst źródłaNichols, Charles. "The vBow: a virtual violin bow controller for mapping gesture to synthesis with haptic feedback". Organised Sound 7, nr 2 (sierpień 2002): 215–20. http://dx.doi.org/10.1017/s135577180200211x.
Pełny tekst źródłaPhukon, Debasish. "A Deep Learning Approach for ASL Recognition and Text-to-Speech Synthesis using CNN". International Journal for Research in Applied Science and Engineering Technology 11, nr 8 (31.08.2023): 2135–43. http://dx.doi.org/10.22214/ijraset.2023.55528.
Pełny tekst źródłaHarrison, Reginald Langford, Stefan Bilbao, James Perry i Trevor Wishart. "An Environment for Physical Modeling of Articulated Brass Instruments". Computer Music Journal 39, nr 4 (grudzień 2015): 80–95. http://dx.doi.org/10.1162/comj_a_00332.
Pełny tekst źródłaPolykretis, Ioannis, Aditi Patil, Mridul Aanjaneya i Konstantinos Michmizos. "An Interactive Framework for Visually Realistic 3D Motion Synthesis using Evolutionarily-trained Spiking Neural Networks". Proceedings of the ACM on Computer Graphics and Interactive Techniques 6, nr 1 (12.05.2023): 1–19. http://dx.doi.org/10.1145/3585509.
Pełny tekst źródłaWołk, Krzysztof, Agnieszka Wołk i Wojciech Glinkowski. "A Cross-Lingual Mobile Medical Communication System Prototype for Foreigners and Subjects with Speech, Hearing, and Mental Disabilities Based on Pictograms". Computational and Mathematical Methods in Medicine 2017 (2017): 1–9. http://dx.doi.org/10.1155/2017/4306416.
Pełny tekst źródłaQureshi, Regula Burckhardt. "Musical Gesture and Extra-Musical Meaning: Words and Music in the Urdu Ghazal". Journal of the American Musicological Society 43, nr 3 (1990): 457–97. http://dx.doi.org/10.2307/831743.
Pełny tekst źródłaMoore, Carol-Lynne. "God geometricizes (and so does Laban)". Dance, Movement & Spiritualities 10, nr 1 (1.10.2023): 73–90. http://dx.doi.org/10.1386/dmas_00047_1.
Pełny tekst źródłaHuang, Chih-Fang, i Wei-Po Nien. "A Study of the Integrated Automated Emotion Music with the Motion Gesture Synthesis via ZigBee Wireless Communication". International Journal of Distributed Sensor Networks 9, nr 11 (styczeń 2013): 645961. http://dx.doi.org/10.1155/2013/645961.
Pełny tekst źródłaLee, Donghee, Dayoung You, Gyoungryul Cho, Hoirim Lee, Eunsoo Shin, Taehwan Choi, Sunghan Kim, Sangmin Lee i Woochul Nam. "EMG-based hand gesture classifier robust to daily variation: Recursive domain adversarial neural network with data synthesis". Biomedical Signal Processing and Control 88 (luty 2024): 105600. http://dx.doi.org/10.1016/j.bspc.2023.105600.
Pełny tekst źródłaAlexanderson, Simon, Rajmund Nagy, Jonas Beskow i Gustav Eje Henter. "Listen, Denoise, Action! Audio-Driven Motion Synthesis with Diffusion Models". ACM Transactions on Graphics 42, nr 4 (26.07.2023): 1–20. http://dx.doi.org/10.1145/3592458.
Pełny tekst źródłaLi, Yuerong, Xingce Wang, Zhongke Wu, Guoshuai Li, Shaolong Liu i Mingquan Zhou. "Flexible indoor scene synthesis based on multi-object particle swarm intelligence optimization and user intentions with 3D gesture". Computers & Graphics 93 (grudzień 2020): 1–12. http://dx.doi.org/10.1016/j.cag.2020.08.002.
Pełny tekst źródłaVan Nort, Doug, Marcelo M. Wanderley i Philippe Depalle. "Mapping Control Structures for Sound Synthesis: Functional and Topological Perspectives". Computer Music Journal 38, nr 3 (wrzesień 2014): 6–22. http://dx.doi.org/10.1162/comj_a_00253.
Pełny tekst źródłaSaafi, Houssem, Med Amine Laribi i Said Zeghloul. "Design of a 4-DoF (degree of freedom) hybrid-haptic device for laparoscopic surgery". Mechanical Sciences 12, nr 1 (12.02.2021): 155–64. http://dx.doi.org/10.5194/ms-12-155-2021.
Pełny tekst źródłaLin, Xu, i Gao Wen. "Human-Computer Chinese Sign Language Interaction System". International Journal of Virtual Reality 4, nr 3 (1.01.2000): 82–92. http://dx.doi.org/10.20870/ijvr.2000.4.3.2651.
Pełny tekst źródłaChopparapu, SaiTeja, i Joseph Beatrice Seventline. "An Efficient Multi-modal Facial Gesture-based Ensemble Classification and Reaction to Sound Framework for Large Video Sequences". Engineering, Technology & Applied Science Research 13, nr 4 (9.08.2023): 11263–70. http://dx.doi.org/10.48084/etasr.6087.
Pełny tekst źródłaDu, Chuan, Lei Zhang, Xiping Sun, Junxu Wang i Jialian Sheng. "Enhanced Multi-Channel Feature Synthesis for Hand Gesture Recognition Based on CNN With a Channel and Spatial Attention Mechanism". IEEE Access 8 (2020): 144610–20. http://dx.doi.org/10.1109/access.2020.3010063.
Pełny tekst źródłaChiu, Jih-Ching, Guan-Yi Lee, Chih-Yang Hsieh i Qing-You Lin. "Design and Implementation of Nursing-Secure-Care System with mmWave Radar by YOLO-v4 Computing Methods". Applied System Innovation 7, nr 1 (19.01.2024): 10. http://dx.doi.org/10.3390/asi7010010.
Pełny tekst źródłaMovchan, Larisa Anatol'evna. "The specifics of teaching the techniques of conducting gesture in the "Choral conducting" classroom". PHILHARMONICA. International Music Journal, nr 1 (styczeń 2024): 18–32. http://dx.doi.org/10.7256/2453-613x.2024.1.69898.
Pełny tekst źródłaDesvages, Charlotte, i Stefan Bilbao. "Two-Polarisation Physical Model of Bowed Strings with Nonlinear Contact and Friction Forces, and Application to Gesture-Based Sound Synthesis". Applied Sciences 6, nr 5 (10.05.2016): 135. http://dx.doi.org/10.3390/app6050135.
Pełny tekst źródłaRamos Flores, Cristohper. "The bodyless sound and the re-embodied sound: an expansion of the sonic body of the instrument". Ricercare, nr 15 (21.08.2022): 30–58. http://dx.doi.org/10.17230/ricercare.2022.15.2.
Pełny tekst źródłaJokisch, Oliver, i Markus Huber. "Advances in the development of a cognitive user interface". MATEC Web of Conferences 161 (2018): 01003. http://dx.doi.org/10.1051/matecconf/201816101003.
Pełny tekst źródłaMagnenat-Thalmann, Nadia, i Arjan Egges. "Interactive Virtual Humans in Real-Time Virtual Environment". International Journal of Virtual Reality 5, nr 2 (1.01.2006): 15–24. http://dx.doi.org/10.20870/ijvr.2006.5.2.2682.
Pełny tekst źródła