Inhaltsverzeichnis
Auswahl der wissenschaftlichen Literatur zum Thema „VoxCeleb2“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "VoxCeleb2" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "VoxCeleb2"
Seo, Soonshin, und Ji-Hwan Kim. „Self-Attentive Multi-Layer Aggregation with Feature Recalibration and Deep Length Normalization for Text-Independent Speaker Verification System“. Electronics 9, Nr. 10 (17.10.2020): 1706. http://dx.doi.org/10.3390/electronics9101706.
Der volle Inhalt der QuelleNagrani, Arsha, Joon Son Chung, Weidi Xie und Andrew Zisserman. „Voxceleb: Large-scale speaker verification in the wild“. Computer Speech & Language 60 (März 2020): 101027. http://dx.doi.org/10.1016/j.csl.2019.101027.
Der volle Inhalt der QuelleBadr, Ameer A., und Alia K. Abdul Hassan. „Age Estimation in Short Speech Utterances Based on Bidirectional Gated-Recurrent Neural Networks“. Engineering and Technology Journal 39, Nr. 1B (25.03.2021): 129–40. http://dx.doi.org/10.30684/etj.v39i1b.1905.
Der volle Inhalt der QuelleLei, Lei, und Kun She. „Identity Vector Extraction by Perceptual Wavelet Packet Entropy and Convolutional Neural Network for Voice Authentication“. Entropy 20, Nr. 8 (13.08.2018): 600. http://dx.doi.org/10.3390/e20080600.
Der volle Inhalt der QuelleMo, Jianye, und Li Xu. „Weighted Cluster-Range Loss and Criticality-Enhancement Loss for Speaker Recognition“. Applied Sciences 10, Nr. 24 (16.12.2020): 9004. http://dx.doi.org/10.3390/app10249004.
Der volle Inhalt der QuelleZeng, Xianfang, Yusu Pan, Mengmeng Wang, Jiangning Zhang und Yong Liu. „Realistic Face Reenactment via Self-Supervised Disentangling of Identity and Pose“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 12757–64. http://dx.doi.org/10.1609/aaai.v34i07.6970.
Der volle Inhalt der QuelleZhong, Qinghua, Ruining Dai, Han Zhang, Yongsheng Zhu und Guofu Zhou. „Text-independent speaker recognition based on adaptive course learning loss and deep residual network“. EURASIP Journal on Advances in Signal Processing 2021, Nr. 1 (23.07.2021). http://dx.doi.org/10.1186/s13634-021-00762-2.
Der volle Inhalt der QuelleLiu, Yi, Liang He, Jia Liu und Michael T. Johnson. „Introducing phonetic information to speaker embedding for speaker verification“. EURASIP Journal on Audio, Speech, and Music Processing 2019, Nr. 1 (Dezember 2019). http://dx.doi.org/10.1186/s13636-019-0166-8.
Der volle Inhalt der QuelleDissertationen zum Thema "VoxCeleb2"
Lukáč, Peter. „Verifikace osob podle hlasu bez extrakce příznaků“. Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2021. http://www.nusl.cz/ntk/nusl-445531.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "VoxCeleb2"
Chung, Joon Son, Arsha Nagrani und Andrew Zisserman. „VoxCeleb2: Deep Speaker Recognition“. In Interspeech 2018. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/interspeech.2018-1929.
Der volle Inhalt der QuelleChung, Joon Son, Jaesung Huh und Seongkyu Mun. „Delving into VoxCeleb: Environment Invariant Speaker Recognition“. In Odyssey 2020 The Speaker and Language Recognition Workshop. ISCA: ISCA, 2020. http://dx.doi.org/10.21437/odyssey.2020-49.
Der volle Inhalt der QuelleNagrani, Arsha, Joon Son Chung und Andrew Zisserman. „VoxCeleb: A Large-Scale Speaker Identification Dataset“. In Interspeech 2017. ISCA: ISCA, 2017. http://dx.doi.org/10.21437/interspeech.2017-950.
Der volle Inhalt der QuelleChen, Zhengyang, Shuai Wang und Yanmin Qian. „Multi-Modality Matters: A Performance Leap on VoxCeleb“. In Interspeech 2020. ISCA: ISCA, 2020. http://dx.doi.org/10.21437/interspeech.2020-2229.
Der volle Inhalt der QuelleXiao, Xiong, Naoyuki Kanda, Zhuo Chen, Tianyan Zhou, Takuya Yoshioka, Sanyuan Chen, Yong Zhao et al. „Microsoft Speaker Diarization System for the Voxceleb Speaker Recognition Challenge 2020“. In ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2021. http://dx.doi.org/10.1109/icassp39728.2021.9413832.
Der volle Inhalt der QuelleHautamäki, Rosa González, und Tomi Kinnunen. „Why Did the x-Vector System Miss a Target Speaker? Impact of Acoustic Mismatch Upon Target Score on VoxCeleb Data“. In Interspeech 2020. ISCA: ISCA, 2020. http://dx.doi.org/10.21437/interspeech.2020-2715.
Der volle Inhalt der Quelle