WH
Wenbin Hu
Author with expertise in Lithium-ion Battery Technology
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
4
(0% Open Access)
Cited by:
2
h-index:
17
/
i10-index:
29
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Coupling Anti‐Site Defect and Lattice Tensile Stimulates Facile Isotropic Li‐ion Diffusion

Jiawei Luo et al.May 31, 2024
Abstract Despite widely used as a commercial cathode, the anisotropic 1D channel hopping of lithium ions along the [010] direction in LiFePO 4 prevents its application in fast charging conditions. Herein, an ultrafast nonequilibrium high‐temperature shock technology is employed to controllably introduce the Li–Fe antisite defects and tensile strain into the lattice of LiFePO 4 . This design makes the study of the effect of the strain field on the performance further extended from the theoretical calculation to the experimental perspective. The existence of Li–Fe antisite defects makes it feasible for Li + to move from the 4a site of the edge‐sharing octahedra across the ab plane to 4c site of corner‐sharing octahedra, producing a new diffusion channel different from [010]. Meanwhile, the presence of a tensile strain field reduces the energy barrier of the new 2D diffusion path. In the combination of electrochemical experiments and first‐principles calculations, the unique multiscale coupling structure of Li–Fe antisite defects and lattice strain promotes isotropic 2D interchannel Li + hopping, leading to excellent fast charging performance and cycling stability (high‐capacity retention of 84.4% after 2000 cycles at 10 C). The new mechanism of Li + diffusion kinetics accelerated by multiscale coupling can guide the design of high‐rate electrodes.
0

Where to Mask: Structure-Guided Masking for Graph Masked Autoencoders

Chuang Liu et al.Aug 1, 2024
Graph masked autoencoders (GMAE) have emerged as a significant advancement in self-supervised pre-training for graph-structured data. Previous GMAE models primarily utilize a straightforward random masking strategy for nodes or edges during training. However, this strategy fails to consider the varying significance of different nodes within the graph structure. In this paper, we investigate the potential of leveraging the graph's structural composition as a fundamental and unique prior in the masked pre-training process. To this end, we introduce a novel structure-guided masking strategy (i.e., StructMAE), designed to refine the existing GMAE models. StructMAE involves two steps: 1) Structure-based Scoring: Each node is evaluated and assigned a score reflecting its structural significance. Two distinct types of scoring manners are proposed: predefined and learnable scoring. 2) Structure-guided Masking: With the obtained assessment scores, we develop an easy-to-hard masking strategy that gradually increases the structural awareness of the self-supervised reconstruction task. Specifically, the strategy begins with random masking and progresses to masking structure-informative nodes based on the assessment scores. This design gradually and effectively guides the model in learning graph structural information. Furthermore, extensive experiments consistently demonstrate that our StructMAE method outperforms existing state-of-the-art GMAE models in both unsupervised and transfer learning tasks. Codes are available at https: //github.com/LiuChuang0059/StructMAE.
0

Zero-shot Learning for Preclinical Drug Screening

Kun Li et al.Aug 1, 2024
Conventional deep learning methods typically employ supervised learning for drug response prediction (DRP). This entails dependence on labeled response data from drugs for model training. However, practical applications in the preclinical drug screening phase demand that DRP models predict responses for novel compounds, often with unknown drug responses. This presents a challenge, rendering supervised deep learning methods unsuitable for such scenarios. In this paper, we propose a zero-shot learning solution for the DRP task in preclinical drug screening. Specifically, we propose a Multi-branch Multi-Source Domain Adaptation Test Enhancement Plug-in, called MSDA. MSDA can be seamlessly integrated with conventional DRP methods, learning invariant features from the prior response data of similar drugs to enhance real-time predictions of unlabeled compounds. The results of experiments on two large drug response datasets showed that MSDA efficiently predicts drug responses for novel compounds, leading to a general performance improvement of 5-10% in the preclinical drug screening phase. The significance of this solution resides in its potential to accelerate the drug discovery process, improve drug candidate assessment, and facilitate the success of drug discovery. The code is available at https://github.com/DrugD/MSDA.
0

Gradformer: Graph Transformer with Exponential Decay

Chuang Liu et al.Aug 1, 2024
Graph Transformers (GTs) have demonstrated their advantages across a wide range of tasks. However, the self-attention mechanism in GTs overlooks the graph's inductive biases, particularly biases related to structure, which are crucial for the graph tasks. Although some methods utilize positional encoding and attention bias to model inductive biases, their effectiveness is still suboptimal analytically. Therefore, this paper presents Gradformer, a method innovatively integrating GT with the intrinsic inductive bias by applying an exponential decay mask to the attention matrix. Specifically, the values in the decay mask matrix diminish exponentially, correlating with the decreasing node proximities within the graph structure. This design enables Gradformer to retain its ability to capture information from distant nodes while focusing on the graph's local details. Furthermore, Gradformer introduces a learnable constraint into the decay mask, allowing different attention heads to learn distinct decay masks. Such an design diversifies the attention heads, enabling a more effective assimilation of diverse structural information within the graph. Extensive experiments on various benchmarks demonstrate that Gradformer consistently outperforms the Graph Neural Network and GT baseline models in various graph classification and regression tasks. Additionally, Gradformer has proven to be an effective method for training deep GT models, maintaining or even enhancing accuracy compared to shallow models as the network deepens, in contrast to the significant accuracy drop observed in other GT models. Codes are available at https://github.com/LiuChuang0059/Gradformer.