WL
Wei Lin
Author with expertise in Dynamics of Synchronization in Complex Networks
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
10
(50% Open Access)
Cited by:
444
h-index:
38
/
i10-index:
107
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Accurate prediction of antibody function and structure using bio-inspired antibody language model

Hongtai Jing et al.May 23, 2024
Abstract In recent decades, antibodies have emerged as indispensable therapeutics for combating diseases, particularly viral infections. However, their development has been hindered by limited structural information and labor-intensive engineering processes. Fortunately, significant advancements in deep learning methods have facilitated the precise prediction of protein structure and function by leveraging co-evolution information from homologous proteins. Despite these advances, predicting the conformation of antibodies remains challenging due to their unique evolution and the high flexibility of their antigen-binding regions. Here, to address this challenge, we present the Bio-inspired Antibody Language Model (BALM). This model is trained on a vast dataset comprising 336 million 40% nonredundant unlabeled antibody sequences, capturing both unique and conserved properties specific to antibodies. Notably, BALM showcases exceptional performance across four antigen-binding prediction tasks. Moreover, we introduce BALMFold, an end-to-end method derived from BALM, capable of swiftly predicting full atomic antibody structures from individual sequences. Remarkably, BALMFold outperforms those well-established methods like AlphaFold2, IgFold, ESMFold and OmegaFold in the antibody benchmark, demonstrating significant potential to advance innovative engineering and streamline therapeutic antibody development by reducing the need for unnecessary trials. The BALMFold structure prediction server is freely available at https://beamlab-sh.com/models/BALMFold.
0

iSORT: An Integrative Method for Reconstructing Spatial Organization of Cells using Transfer Learning

Yecheng Tan et al.Mar 3, 2024
ABSTRACT Spatial tissues exhibit complex gene expression and multicellular patterns that are difficult to dissect. Single-cell RNA sequencing (scRNA-seq) provides full coverages of genes, but lacking spatial information, whereas spatial transcriptomics (ST) measures spatial locations of individual or group of cells, with more restrictions on gene information. To integrate scRNA-seq and ST data, we introduce a transfer learning method to decipher spatial organization of cells named iSORT. iSORT trains a neural network that maps gene expressions to spatial locations using scRNA-seq data along with ST slices as references. iSORT can find spatial patterns at single-cell scale, identify key genes that drive the patterning, and infer pseudo-growth trajectories using a concept of SpaRNA velocity. Benchmarking on simulation data and comparing with multiple existing tools show iSORT’s robustness and accuracy in reconstructing spatial organization. Using our own new human artery datasets, iSORT shows its capability of dissecting atherosclerosis. Applications to a range of biological systems, such as mouse embryo, mouse brain, Drosophila embryo, and human developmental heart, demonstrate that iSORT can utilize both scRNA-seq and ST datasets to uncover multilayer spatial information of single cells.
0

Evaluation of salt particle collection devices for coastal metal storage facilities with natural ventilation

C. Chen et al.Oct 1, 2024
Abstract Stress corrosion cracking (SCC) is a potential threat to metal containers stored in coastal facilities utilizing natural ventilation due to sea salt particles in the airflow. This study investigates the applicability of low-pressure salt particle collection devices developed by the Central Research Institute of Electric Power Industry (CRIEPI) in Japan (reports N08050 and N11044) to natural ventilation systems in Taiwanese coastal storage facilities. We evaluate the capture efficiency and pressure drop of these devices compared to conventional stainless steel filters. The pressure loss of the collection devices was assessed using the CRIEPI model and compared with a handbook model, demonstrating high agreement. Capture efficiency analysis revealed a reduction rate of approximately 78% for the salt particle collection device. However, peak analysis indicated this reduction was primarily effective for particles exceeding 10.2 μm in diameter. Compared to stainless steel filters, the collection devices offer lower reduction efficiency but with a stable pressure drop and potentially lower maintenance costs. This study also emphasizes the need for optimizing salt particle reduction methods by considering the trade-off between capture efficiency and pressure drop.
0

RTS-ViT: Real-Time Share Vision Transformer for Image Classification

Chunlei Meng et al.Jan 1, 2025
Vision transformers have achieved remarkable success in image classification. The dual-branch vision transformer generates more features by taking advantage of feature fusion. Inspired by this, a dual-branch vision transformer with Real-Time Share feature was proposed during the encoding process for retinal image classification tasks. The approach processes image patches of varying sizes (base and large) through two independent branches and implements multi-stage Real-Time feature fusion via the Real-Time Share feature encoder. This encoder enables the branches to complement each other's features at each encoding stage, facilitating finer feature learning and enhancing the self-attention information passed to subsequent stages. It significantly boosts feature representation and classification performance. Additionally, a straightforward and effective feature fusion method, L -Times Attention Fusion, was proposed: vector concatenation for Real-Time Share feature in the earlier ( L -1) encoding stages and element-wise addition for overall feature fusion at the L -th stage, achieving more efficient feature integration. The method was validated on a retinal image dataset. Results show that the approach outperforms the recent Cross-ViT average TOP-1 Acc by 5.61% with lower FLOPs and model parameters, without relying on pre-trained weights, highlighting stronger self-learning feature capabilities and reduced reliance on extensive pre-training data.