JL
Jiacheng Lin
Author with expertise in Computational Methods in Drug Discovery
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
2
(50% Open Access)
Cited by:
2
h-index:
3
/
i10-index:
1
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
2

Pisces: A multi-modal data augmentation approach for drug combination synergy prediction

Hanwen Xu et al.Nov 22, 2022
Abstract Drug combination therapy is promising for cancer treatment through simultaneously reducing resistance and improving efficacy. Machine learning approaches to drug combination response prediction can prioritize experiments and discover new combinations, but require lots of training data in order to fit the nonlinearity of synergistic effect. Here, we propose Pisces, a novel machine learning approach for drug combination synergy prediction. The key idea of Pisces is to augment the sparse drug combination dataset by creating multiple views for each drug combination based on its different modalities. We combined eight different modalities of a single drug to create 64 augmented views for a pair of drugs, effectively expanding the size of the original data 64 times. Pisces obtained state-of-the-art results on cell-line-based drug synergy prediction, xenograft-based drug synergy prediction, and drug-drug interaction prediction. By interpreting Pisces’s predictions using a genetic interaction network, we further identified a breast cancer drug-sensitive pathway from BRCA cell lines in GDSC. We validated this pathway on an independent TCGA-BRCA tumor dataset and found that patients with this pathway activated had substantially longer survival time. Collectively, Pisces effectively predicts drug synergy and drug-drug interactions through augmenting the original dataset 64 times, and can be broadly applied to various biological applications that involve a pair of drugs.
0

CF-Deformable DETR: An End-to-End Alignment-Free Model for Weakly Aligned Visible-Infrared Object Detection

Haolong Fu et al.Aug 1, 2024
Weakly aligned visible-infrared object detection poses significant challenges due to the imprecise alignment between visible and infrared images. Most existing methods explore the alignment strategies between visible and infrared images, yielding unbearable computation costs. This paper first proposes an end-to-end alignment-free architecture Cross-modal Fusion Deformable DEtection TRansformer (``CF-Deformable DETR'') for weakly aligned visible-infrared object detection. Abandoning the traditional image alignment, CF-Deformable DETR introduces a simple yet effective cross-modal deformable attention mechanism to directly implement automatic cross-modal point mapping, generating well-aligned bimodal features with high efficiency. Moreover, we design a Point-level Feature Consistency Loss to guide the cross-modal point mapping, ensuring the consistency of paired features to support the following fusion. Extensive experiments are conducted on three benchmark datasets. The experimental results demonstrate that CF-Deformable DETR achieves close accuracy on weakly aligned and strictly aligned data as well as maintains stable performance to a certain extent against various offset degrees of weakly aligned data. Code is available at https://github.com/116508/CF-Deformable-DETR.