Zeitschriftenartikel zum Thema „Generative audio models“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Generative audio models" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Evans, Zach, Scott H. Hawley und Katherine Crowson. „Musical audio samples generated from joint text embeddings“. Journal of the Acoustical Society of America 152, Nr. 4 (Oktober 2022): A178. http://dx.doi.org/10.1121/10.0015956.
Der volle Inhalt der QuelleWang, Heng, Jianbo Ma, Santiago Pascual, Richard Cartwright und Weidong Cai. „V2A-Mapper: A Lightweight Solution for Vision-to-Audio Generation by Connecting Foundation Models“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 14 (24.03.2024): 15492–501. http://dx.doi.org/10.1609/aaai.v38i14.29475.
Der volle Inhalt der QuelleSakirin, Tam, und Siddartha Kusuma. „A Survey of Generative Artificial Intelligence Techniques“. Babylonian Journal of Artificial Intelligence 2023 (10.03.2023): 10–14. http://dx.doi.org/10.58496/bjai/2023/003.
Der volle Inhalt der QuelleBroad, Terence, Frederic Fol Leymarie und Mick Grierson. „Network Bending: Expressive Manipulation of Generative Models in Multiple Domains“. Entropy 24, Nr. 1 (24.12.2021): 28. http://dx.doi.org/10.3390/e24010028.
Der volle Inhalt der QuelleAldausari, Nuha, Arcot Sowmya, Nadine Marcus und Gelareh Mohammadi. „Video Generative Adversarial Networks: A Review“. ACM Computing Surveys 55, Nr. 2 (31.03.2023): 1–25. http://dx.doi.org/10.1145/3487891.
Der volle Inhalt der QuelleShen, Qiwei, Junjie Xu, Jiahao Mei, Xingjiao Wu und Daoguo Dong. „EmoStyle: Emotion-Aware Semantic Image Manipulation with Audio Guidance“. Applied Sciences 14, Nr. 8 (10.04.2024): 3193. http://dx.doi.org/10.3390/app14083193.
Der volle Inhalt der QuelleAndreu, Sergi, und Monica Villanueva Aylagas. „Neural Synthesis of Sound Effects Using Flow-Based Deep Generative Models“. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 18, Nr. 1 (11.10.2022): 2–9. http://dx.doi.org/10.1609/aiide.v18i1.21941.
Der volle Inhalt der QuelleLattner, Stefan, und Javier Nistal. „Stochastic Restoration of Heavily Compressed Musical Audio Using Generative Adversarial Networks“. Electronics 10, Nr. 11 (05.06.2021): 1349. http://dx.doi.org/10.3390/electronics10111349.
Der volle Inhalt der QuelleYang, Junpeng, und Haoran Zhang. „Development And Challenges of Generative Artificial Intelligence in Education and Art“. Highlights in Science, Engineering and Technology 85 (13.03.2024): 1334–47. http://dx.doi.org/10.54097/vaeav407.
Der volle Inhalt der QuelleChoi, Ha-Yeong, Sang-Hoon Lee und Seong-Whan Lee. „DDDM-VC: Decoupled Denoising Diffusion Models with Disentangled Representation and Prior Mixup for Verified Robust Voice Conversion“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 16 (24.03.2024): 17862–70. http://dx.doi.org/10.1609/aaai.v38i16.29740.
Der volle Inhalt der QuelleGupta, Chitralekha, Shreyas Sridhar, Denys J. C. Matthies, Christophe Jouffrais und Suranga Nanayakkara. „SonicVista: Towards Creating Awareness of Distant Scenes through Sonification“. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 8, Nr. 2 (13.05.2024): 1–32. http://dx.doi.org/10.1145/3659609.
Der volle Inhalt der QuellePrudhvi, Y., T. Adinarayana, T. Chandu, S. Musthak und G. Sireesha. „Vocal Visage: Crafting Lifelike 3D Talking Faces from Static Images and Sound“. International Journal of Innovative Research in Computer Science and Technology 11, Nr. 6 (09.11.2023): 13–17. http://dx.doi.org/10.55524/ijircst.2023.11.6.3.
Der volle Inhalt der QuelleLiang, Kai, und Haijun Zhao. „Application of Generative Adversarial Nets (GANs) in Active Sound Production System of Electric Automobiles“. Shock and Vibration 2020 (28.10.2020): 1–10. http://dx.doi.org/10.1155/2020/8888578.
Der volle Inhalt der QuelleLiu, Yunyi, und Craig Jin. „Impact on quality and diversity from integrating a reconstruction loss into neural audio synthesis“. Journal of the Acoustical Society of America 154, Nr. 4_supplement (01.10.2023): A99. http://dx.doi.org/10.1121/10.0022922.
Der volle Inhalt der QuelleLi, Jing, Zhengping Li, Ying Li und Lijun Wang. „P‐2.12: A Comprehensive Study of Content Generation Using Diffusion Model“. SID Symposium Digest of Technical Papers 54, S1 (April 2023): 522–24. http://dx.doi.org/10.1002/sdtp.16346.
Der volle Inhalt der QuelleXi, Wang, Guillaume Devineau, Fabien Moutarde und Jie Yang. „Generative Model for Skeletal Human Movements Based on Conditional DC-GAN Applied to Pseudo-Images“. Algorithms 13, Nr. 12 (03.12.2020): 319. http://dx.doi.org/10.3390/a13120319.
Der volle Inhalt der QuelleHe, Yibo, Kah Phooi Seng und Li Minn Ang. „Multimodal Sensor-Input Architecture with Deep Learning for Audio-Visual Speech Recognition in Wild“. Sensors 23, Nr. 4 (07.02.2023): 1834. http://dx.doi.org/10.3390/s23041834.
Der volle Inhalt der QuelleGong, Yuan, Cheng-I. Lai, Yu-An Chung und James Glass. „SSAST: Self-Supervised Audio Spectrogram Transformer“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 10699–709. http://dx.doi.org/10.1609/aaai.v36i10.21315.
Der volle Inhalt der QuelleVujović, Dušan. „Generative AI: Riding the new general purpose technology storm“. Ekonomika preduzeca 72, Nr. 1-2 (2024): 125–36. http://dx.doi.org/10.5937/ekopre2402125v.
Der volle Inhalt der QuelleDavis, Jason. „In a Digital World With Generative AI Detection Will Not be Enough“. Newhouse Impact Journal 1, Nr. 1 (2024): 9–12. http://dx.doi.org/10.14305/jn.29960819.2024.1.1.01.
Der volle Inhalt der QuelleSamanta, Bidisha, Abir DE, Gourhari Jana, Pratim Kumar Chattaraj, Niloy Ganguly und Manuel Gomez Rodriguez. „NeVAE: A Deep Generative Model for Molecular Graphs“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 1110–17. http://dx.doi.org/10.1609/aaai.v33i01.33011110.
Der volle Inhalt der QuelleSaxena, Divya, und Jiannong Cao. „Generative Adversarial Networks (GANs)“. ACM Computing Surveys 54, Nr. 3 (Juni 2021): 1–42. http://dx.doi.org/10.1145/3446374.
Der volle Inhalt der QuelleAvdeeff, Melissa. „Artificial Intelligence & Popular Music: SKYGGE, Flow Machines, and the Audio Uncanny Valley“. Arts 8, Nr. 4 (11.10.2019): 130. http://dx.doi.org/10.3390/arts8040130.
Der volle Inhalt der QuelleZhou, Kun, Wenyong Wang, Teng Hu und Kai Deng. „Time Series Forecasting and Classification Models Based on Recurrent with Attention Mechanism and Generative Adversarial Networks“. Sensors 20, Nr. 24 (16.12.2020): 7211. http://dx.doi.org/10.3390/s20247211.
Der volle Inhalt der QuelleSkitsko, Volodymyr I. „Data Analysis Using Generative AI: Opportunities and Challenges“. PROBLEMS OF ECONOMY 4, Nr. 58 (2023): 217–25. http://dx.doi.org/10.32983/2222-0712-2023-4-217-225.
Der volle Inhalt der QuelleShi, Yi, und Lin Sun. „How Generative AI Is Transforming Journalism: Development, Application and Ethics“. Journalism and Media 5, Nr. 2 (10.05.2024): 582–94. http://dx.doi.org/10.3390/journalmedia5020039.
Der volle Inhalt der QuelleRaikwar, Piyush, Renato Cardoso, Nadezda Chernyavskaya, Kristina Jaruskova, Witold Pokorski, Dalila Salamani, Mudhakar Srivatsa, Kalliopi Tsolaki, Sofia Vallecorsa und Anna Zaborowska. „Transformers for Generalized Fast Shower Simulation“. EPJ Web of Conferences 295 (2024): 09039. http://dx.doi.org/10.1051/epjconf/202429509039.
Der volle Inhalt der QuelleLi, Siyuan, Lei Cheng, Jun Li, Zichen Wang und Jianlong Li. „Learning data distribution of three-dimensional ocean sound speed fields via diffusion models“. Journal of the Acoustical Society of America 155, Nr. 5 (01.05.2024): 3410–25. http://dx.doi.org/10.1121/10.0026026.
Der volle Inhalt der QuelleSanjeeva, Polepaka, Vanipenta Balasri Nitin Reddy, Jagirdar Indraj Goud, Aavula Guru Prasad und Ashish Pathani. „TEXT2AV – Automated Text to Audio and Video Conversion“. E3S Web of Conferences 430 (2023): 01027. http://dx.doi.org/10.1051/e3sconf/202343001027.
Der volle Inhalt der QuelleNakano, Tomoyasu, Kazuyoshi Yoshii und Masataka Goto. „Musical Similarity and Commonness Estimation Based on Probabilistic Generative Models of Musical Elements“. International Journal of Semantic Computing 10, Nr. 01 (März 2016): 27–52. http://dx.doi.org/10.1142/s1793351x1640002x.
Der volle Inhalt der QuelleSmith, Jason, und Jason Freeman. „Effects of Deep Neural Networks on the Perceived Creative Autonomy of a Generative Musical System“. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 17, Nr. 1 (04.10.2021): 91–98. http://dx.doi.org/10.1609/aiide.v17i1.18895.
Der volle Inhalt der QuelleDe Silva, Daswin, Shalinka Jayatilleke, Mona El-Ayoubi, Zafar Issadeen, Harsha Moraliyage und Nishan Mills. „The Human-Centred Design of a Universal Module for Artificial Intelligence Literacy in Tertiary Education Institutions“. Machine Learning and Knowledge Extraction 6, Nr. 2 (18.05.2024): 1114–25. http://dx.doi.org/10.3390/make6020051.
Der volle Inhalt der QuelleLopez Duarte, Alvaro E. „Algorithmic interactive music generation in videogames“. SoundEffects - An Interdisciplinary Journal of Sound and Sound Experience 9, Nr. 1 (22.01.2020): 38–59. http://dx.doi.org/10.7146/se.v9i1.118245.
Der volle Inhalt der QuelleArandas, Luís, Miguel Carvalhais und Mick Grierson. „Computing Short Films Using Language-Guided Diffusion and Vocoding Through Virtual Timelines of Summaries“. INSAM Journal of Contemporary Music, Art and Technology, Nr. 10 (15.07.2023): 71–89. http://dx.doi.org/10.51191/issn.2637-1898.2023.6.10.71.
Der volle Inhalt der QuelleDong, Zhongping, Yan Xu, Andrew Abel und Dong Wang. „Lip2Speech: Lightweight Multi-Speaker Speech Reconstruction with Gabor Features“. Applied Sciences 14, Nr. 2 (17.01.2024): 798. http://dx.doi.org/10.3390/app14020798.
Der volle Inhalt der QuelleYakura, Hiromu, Youhei Akimoto und Jun Sakuma. „Generate (Non-Software) Bugs to Fool Classifiers“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 01 (03.04.2020): 1070–78. http://dx.doi.org/10.1609/aaai.v34i01.5457.
Der volle Inhalt der QuelleMu, Jin. „Pose Estimation-Assisted Dance Tracking System Based on Convolutional Neural Network“. Computational Intelligence and Neuroscience 2022 (03.06.2022): 1–10. http://dx.doi.org/10.1155/2022/2301395.
Der volle Inhalt der QuelleVejare, Ritvij, Abhishek Vaish, Kapish Singh und Mrunali Desai. „Removal of Image Steganography using Generative Adversarial Network“. Indian Journal of Artificial Intelligence and Neural Networking 2, Nr. 4 (30.06.2022): 6–10. http://dx.doi.org/10.54105/ijainn.d1054.062422.
Der volle Inhalt der QuelleSaeed, Tabish, Aneeqa Ijaz, Ismail Sadiq, Haneya Naeem Qureshi, Ali Rizwan und Ali Imran. „An AI-Enabled Bias-Free Respiratory Disease Diagnosis Model Using Cough Audio“. Bioengineering 11, Nr. 1 (05.01.2024): 55. http://dx.doi.org/10.3390/bioengineering11010055.
Der volle Inhalt der QuelleSingh, Aman, und Tokunbo Ogunfunmi. „An Overview of Variational Autoencoders for Source Separation, Finance, and Bio-Signal Applications“. Entropy 24, Nr. 1 (28.12.2021): 55. http://dx.doi.org/10.3390/e24010055.
Der volle Inhalt der QuelleMarchi, Erik, Fabio Vesperini, Stefano Squartini und Björn Schuller. „Deep Recurrent Neural Network-Based Autoencoders for Acoustic Novelty Detection“. Computational Intelligence and Neuroscience 2017 (2017): 1–14. http://dx.doi.org/10.1155/2017/4694860.
Der volle Inhalt der QuelleWang, Tianmeng. „Research and Application Analysis of Correlative Optimization Algorithms for GAN“. Highlights in Science, Engineering and Technology 57 (11.07.2023): 141–47. http://dx.doi.org/10.54097/hset.v57i.9992.
Der volle Inhalt der QuelleZagallo, Patricia, Shanice Meddleton und Molly S. Bolger. „Teaching Real Data Interpretation with Models (TRIM): Analysis of Student Dialogue in a Large-Enrollment Cell and Developmental Biology Course“. CBE—Life Sciences Education 15, Nr. 2 (Juni 2016): ar17. http://dx.doi.org/10.1187/cbe.15-11-0239.
Der volle Inhalt der QuelleJournal, IJSREM. „Deep Fake Face Detection Using Deep Learning Tech with LSTM“. INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, Nr. 02 (08.02.2024): 1–10. http://dx.doi.org/10.55041/ijsrem28624.
Der volle Inhalt der QuelleBonde, Lossan. „A Conceptual Design of a Generative Artificial Intelligence System for Education“. International Journal of Research and Innovation in Applied Science IX, Nr. IV (2024): 457–69. http://dx.doi.org/10.51584/ijrias.2024.904034.
Der volle Inhalt der QuelleВ. В., Кабанова,, und Логунова, О. С. „Application of artificial intelligence in multimedia“. Cherepovets State University Bulletin, Nr. 6(111) (27.12.2022): 23–41. http://dx.doi.org/10.23859/1994-0637-2022-6-111-2.
Der volle Inhalt der QuelleGrassucci, Eleonora, Danilo Comminiello und Aurelio Uncini. „An Information-Theoretic Perspective on Proper Quaternion Variational Autoencoders“. Entropy 23, Nr. 7 (03.07.2021): 856. http://dx.doi.org/10.3390/e23070856.
Der volle Inhalt der QuelleIgnatious, Henry Alexander, Hesham El-Sayed und Salah Bouktif. „IFGAN—A Novel Image Fusion Model to Fuse 3D Point Cloud Sensory Data“. Journal of Sensor and Actuator Networks 13, Nr. 1 (07.02.2024): 15. http://dx.doi.org/10.3390/jsan13010015.
Der volle Inhalt der QuelleZielinski, Chris, Margaret Winker, Rakesh Aggarwal, Lorraine Ferris, Markus Heinemann, Jose Florencio Lapeña, Sanjay Pai et al. „Chatbots, Generative AI, and Scholarly Manuscripts: WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications Revised May 31, 2023“. Philippine Journal of Otolaryngology Head and Neck Surgery 38, Nr. 1 (04.06.2023): 7. http://dx.doi.org/10.32412/pjohns.v38i1.2135.
Der volle Inhalt der QuelleLiu, Jinglin, Chengxi Li, Yi Ren, Feiyang Chen und Zhou Zhao. „DiffSinger: Singing Voice Synthesis via Shallow Diffusion Mechanism“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 11020–28. http://dx.doi.org/10.1609/aaai.v36i10.21350.
Der volle Inhalt der Quelle