Добірка наукової літератури з теми "Butterfly factorization"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Butterfly factorization".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Butterfly factorization"

1

Li, Yingzhou, Haizhao Yang, Eileen R. Martin, Kenneth L. Ho, and Lexing Ying. "Butterfly Factorization." Multiscale Modeling & Simulation 13, no. 2 (January 2015): 714–32. http://dx.doi.org/10.1137/15m1007173.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Li, Yingzhou, and Haizhao Yang. "Interpolative Butterfly Factorization." SIAM Journal on Scientific Computing 39, no. 2 (January 2017): A503—A531. http://dx.doi.org/10.1137/16m1074941.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Li, Yingzhou, Haizhao Yang, and Lexing Ying. "Multidimensional butterfly factorization." Applied and Computational Harmonic Analysis 44, no. 3 (May 2018): 737–58. http://dx.doi.org/10.1016/j.acha.2017.04.002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Pang, Qiyuan, Kenneth L. Ho, and Haizhao Yang. "Interpolative Decomposition Butterfly Factorization." SIAM Journal on Scientific Computing 42, no. 2 (January 2020): A1097—A1115. http://dx.doi.org/10.1137/19m1294873.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Liu, Yang, Xin Xing, Han Guo, Eric Michielssen, Pieter Ghysels, and Xiaoye Sherry Li. "Butterfly Factorization Via Randomized Matrix-Vector Multiplications." SIAM Journal on Scientific Computing 43, no. 2 (January 2021): A883—A907. http://dx.doi.org/10.1137/20m1315853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Chen, Ze, Juan Zhang, Kenneth L. Ho, and Haizhao Yang. "Multidimensional phase recovery and interpolative decomposition butterfly factorization." Journal of Computational Physics 412 (July 2020): 109427. http://dx.doi.org/10.1016/j.jcp.2020.109427.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Jaber, Marwan A., та Daniel Massicotte. "Radix-2α/4β Building Blocks for Efficient VLSI’s Higher Radices Butterflies Implementation". VLSI Design 2014 (13 травня 2014): 1–13. http://dx.doi.org/10.1155/2014/690594.

Повний текст джерела
Анотація:
This paper describes an embedded FFT processor where the higher radices butterflies maintain one complex multiplier in its critical path. Based on the concept of a radix-r fast Fourier factorization and based on the FFT parallel processing, we introduce a new concept of a radix-r Fast Fourier Transform in which the concept of the radix-r butterfly computation has been formulated as the combination of radix-2α/4β butterflies implemented in parallel. By doing so, the VLSI butterfly implementation for higher radices would be feasible since it maintains approximately the same complexity of the radix-2/4 butterfly which is obtained by block building of the radix-2/4 modules. The block building process is achieved by duplicating the block circuit diagram of the radix-2/4 module that is materialized by means of a feed-back network which will reuse the block circuit diagram of the radix-2/4 module.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Bremer, James, Ze Chen, and Haizhao Yang. "Rapid Application of the Spherical Harmonic Transform via Interpolative Decomposition Butterfly Factorization." SIAM Journal on Scientific Computing 43, no. 6 (January 2021): A3789—A3808. http://dx.doi.org/10.1137/20m1333845.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Yang, Haizhao. "A unified framework for oscillatory integral transforms: When to use NUFFT or butterfly factorization?" Journal of Computational Physics 388 (July 2019): 103–22. http://dx.doi.org/10.1016/j.jcp.2019.02.044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Mardan, Suha Suliman, and Mounir Taha Hamood. "New fast Walsh–Hadamard–Hartley transform algorithm." International Journal of Electrical and Computer Engineering (IJECE) 13, no. 2 (April 1, 2023): 1533. http://dx.doi.org/10.11591/ijece.v13i2.pp1533-1540.

Повний текст джерела
Анотація:
<span lang="EN-US">This paper presents an efficient fast Walsh–Hadamard–Hartley transform (FWHT) algorithm that incorporates the computation of the Walsh-Hadamard transform (WHT) with the discrete Hartley transform (DHT) into an orthogonal, unitary single fast transform possesses the block diagonal structure. The proposed algorithm is implemented in an integrated butterfly structure utilizing the sparse matrices factorization approach and the Kronecker (tensor) product technique, which proved a valuable and fast tool for developing and analyzing the proposed algorithm. The proposed approach was distinguished by ease of implementation and reduced computational complexity compared to previous algorithms, which were based on the concatenation of WHT and FHT by saving up to 3N-4 of real multiplication and 7.5N-10 of real addition.</span>
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Butterfly factorization"

1

Zheng, Léon. "Frugalité en données et efficacité computationnelle dans l'apprentissage profond." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0009.

Повний текст джерела
Анотація:
Cette thèse s’intéresse à deux enjeux de frugalité et d’efficacité dans l’apprentissage profond moderne : frugalité en données et efficacité en ressources de calcul. Premièrement, nous étudions l’apprentissage auto-supervisé, une approche prometteuse en vision par ordinateur qui ne nécessite pas d’annotations des données pour l'apprentissage de représentations. En particulier, nous proposons d’unifier plusieurs fonctions objectives auto-supervisées dans un cadre de noyaux invariants par rotation, ce qui ouvre des perspectives en termes de réduction de coût de calcul de ces fonctions objectives. Deuxièmement, étant donné que l’opération prédominante des réseaux de neurones profonds est la multiplication matricielle, nous nous penchons sur la construction d’algorithmes rapides qui permettent d’effectuer la multiplication matrice-vecteur avec une complexité presque linéaire. Plus spécifiquement, nous étudions le problème de factorisation creuse de matrices sous contrainte de parcimonie "butterfly", une structure commune à plusieurs transformées rapides comme la transformée de Fourier discrète. La thèse établit des garanties théoriques sur l’algorithme de factorisation butterfly, et étudie le potentiel de la parcimonie butterfly pour la réduction du coût computationnel des réseaux de neurones lors de leur phase d’apprentissage ou d’inférence. Nous explorons notamment l’efficacité des implémentations GPU de la multiplication matricielle avec parcimonie butterfly, dans le but d’accélérer réellement des réseaux de neurones parcimonieux
This thesis focuses on two challenges of frugality and efficiency in modern deep learning: data frugality and computational resource efficiency. First, we study self-supervised learning, a promising approach in computer vision that does not require data annotations for learning representations. In particular, we propose a unification of several self-supervised objective functions under a framework based on rotation-invariant kernels, which opens up prospects to reduce the computational cost of these objective functions. Second, given that matrix multiplication is the predominant operation in deep neural networks, we focus on the construction of fast algorithms that allow matrix-vector multiplication with nearly linear complexity. More specifically, we examine the problem of sparse matrix factorization under the constraint of butterfly sparsity, a structure common to several fast transforms like the discrete Fourier transform. The thesis establishes new theoretical guarantees for butterfly factorization algorithms, and explores the potential of butterfly sparsity to reduce the computational costs of neural networks during their training or inference phase. In particular, we explore the efficiency of GPU implementations for butterfly sparse matrix multiplication, with the goal of truly accelerating sparse neural networks
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Butterfly factorization"

1

Shekofteh, S. Kazem, Christian Alles, and Holger Fröning. "Reducing Memory Requirements for the IPU using Butterfly Factorizations." In SC-W 2023: Workshops of The International Conference on High Performance Computing, Network, Storage, and Analysis. New York, NY, USA: ACM, 2023. http://dx.doi.org/10.1145/3624062.3624196.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії