LS
Lu Sun
Author with expertise in High-Temperature Superconductivity
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
5
(20% Open Access)
Cited by:
234
h-index:
16
/
i10-index:
26
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Layer-dependent magnon-magnon coupling in a synthetic antiferromagnet

Yaqi Rong et al.May 24, 2024
The synthetic antiferromagnet (SAF) offers a versatile platform to couple with various quasiparticles that is an indispensable element for the realization of hybrid quantum computing systems. In this work, we found that the magnon-magnon coupling strength in layered SAFs, consisting of repeated layers of $[{\mathrm{Ni}}_{80}{\mathrm{Fe}}_{20}/\mathrm{Ru}{]}_{n}$, is highly dependent on the finite layer number n. In particular, the self-hybridizations of individual acoustic or optical modes in the even-layers lead to the opening of local anticrossing gaps within the same type of mode in the resonance spectra. With the structural asymmetry of the odd-layers, a global gap between different modes can be generated whose size is found to decrease with increasing layer number. By combining the static linear chain model with the dynamically coupled Landau-Lifshitz equations, we further formulated a theoretical approach to qualitatively describe such highly layer-dependent behaviors of magnon-magnon coupling in SAFs. It is clear that the layer number is a significant factor that influences both the number of excited modes and the associated mode hybridizations. Our findings shed light on the magnon-magnon coupling in layered antiferromagnets that may invigorate the development of magnonics.
0

Learning Low-Rank Tensor Cores with Probabilistic l0-Regularized Rank Selection for Model Compression

Tianxiao Cao et al.Aug 1, 2024
Compressing deep neural networks is of great importance for real-world applications on resource-constrained devices. Tensor decomposition is one promising answer that retains the functionality and most of the expressive power of the original deep models by replacing the weights with their decomposed cores. Decomposition with optimal ranks can achieve a good compression-accuracy trade-off, but it is expensive to optimize due to its discrete and combinatorial nature. A common practice is to set all ranks equal and tune one hyperparameter, but it may significantly harm the flexibility and generalization. In this paper, we propose a novel automatic rank selection method for deep model compression that allows learning model weights and decomposition ranks simultaneously. We propose to penalize the ℓ0 (quasi-)norm of the slices of decomposed tensor cores during model training. To avoid combinatorial optimization, we develop a probabilistic formulation and apply an approximate Bernoulli gate to each of the slices of tensor cores, which can be implemented in an end-to-end and scalable framework via gradient descent. It enables the automatic rank selection to be incorporated with arbitrary tensor decompositions and neural network layers such as linear layers, convolutional layers, and embedding layers. Comprehensive experiments on various tasks, including image classification, text sentiment classification, and neural machine translation, demonstrate the superior effectiveness of the proposed method over baselines.