JZ
Jian Zhang
Author with expertise in Radiomics in Medical Imaging Analysis
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
3
(33% Open Access)
Cited by:
1
h-index:
3
/
i10-index:
0
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Single molecule manipulation of copper nanoclusters for modulating nonlinear optics

Xuekun Gong et al.Jun 1, 2024
The molecular-level elucidation of structure-property relationships of metal nanoclusters is quite valuable for further structure design and performance optimization. Nevertheless, the single-molecule manipulation of metal nanoclusters for controlling their physic-chemical properties remains a grand challenge. Herein, we demonstrate that the third-order nonlinear optical (NLO) performance of structurally precise copper nanoclusters can be efficiently modulated by single-molecule chemistry. Two analogous clusters, [Cu25(RS)18H10]3- (Cu25) and [Cu26(RS)18H10(PPh3)]2- (Cu26, RSH is 2-fluorobenzenethiol), have been attained and structure determined in the work. Both clusters feature a centered cuboctahedron Cu13 core with a similar shell structure, save for the addition of one more PPh3Cuunit on the Cu26 cluster. Remarkably, the single molecule difference in the structure has essentially altered their properties including optical characteristics and stability. In comparison to Cu25, Cu26 displays better optical limiting activity. Theoretical calculations suggest that the substantial electron transfer from the PPh3 ligand to the metal core boosts the NLO performance of Cu26. This work not only showcases that structurally precise copper nanoclusters are a promising class of optical limiting (OL) materials but also deepens the understanding of fabricating nanoparticulate materials via the single molecule strategy.
0

MIST: Multi-instance selective transformer for histopathological subtype prediction

Rongchang Zhao et al.Jun 26, 2024
Accurate histopathological subtype prediction is clinically significant for cancer diagnosis and tumor microenvironment analysis. However, achieving accurate histopathological subtype prediction is a challenging task due to (1) instance-level discrimination of histopathological images, (2) low inter-class and large intra-class variances among histopathological images in their shape and chromatin texture, and (3) heterogeneous feature distribution over different images. In this paper, we formulate subtype prediction as fine-grained representation learning and propose a novel multi-instance selective transformer (MIST) framework, effectively achieving accurate histopathological subtype prediction. The proposed MIST designs an effective selective self-attention mechanism with multi-instance learning (MIL) and vision transformer (ViT) to adaptive identify informative instances for fine-grained representation. Innovatively, the MIST entrusts each instance with different contributions to the bag representation based on its interactions with instances and bags. Specifically, a SiT module with selective multi-head self-attention (S-MSA) is well-designed to identify the representative instances by modeling the instance-to-instance interactions. On the contrary, a MIFD module with the information bottleneck is proposed to learn the discriminative fine-grained representation for histopathological images by modeling instance-to-bag interactions with the selected instances. Substantial experiments on five clinical benchmarks demonstrate that the MIST achieves accurate histopathological subtype prediction and obtains state-of-the-art performance with an accuracy of 0.936. The MIST shows great potential to handle fine-grained medical image analysis, such as histopathological subtype prediction in clinical applications.
0

Abdominal multi-organ segmentation in Multi-sequence MRIs based on visual attention guided network and knowledge distillation

Hai-Qiu Fu et al.May 28, 2024
Purpose: The segmentation of abdominal organs in magnetic resonance imaging (MRI) plays a pivotal role in various therapeutic applications. Nevertheless, the application of deep-learning methods to abdominal organ segmentation encounters numerous challenges, especially in addressing blurred boundaries and regions characterized by low-contrast. Methods: In this study, a multi-scale visual attention-guided network (VAG-Net) was proposed for abdominal multi-organ segmentation based on unpaired multi-sequence MRI. A new visual attention-guided (VAG) mechanism was designed to enhance the extraction of contextual information, particularly at the edge of organs. Furthermore, a new loss function inspired by knowledge distillation was introduced to minimize the semantic disparity between different MRI sequences. Results: The proposed method was evaluated on the CHAOS 2019 Challenge dataset and compared with six state-of-the-art methods. The results demonstrated that our model outperformed these methods, achieving DSC values of 91.83 ± 0.24% and 94.09 ± 0.66% for abdominal multi-organ segmentation in T1-DUAL and T2-SPIR modality, respectively. Conclusion: The experimental results show that our proposed method has superior performance in abdominal multi-organ segmentation, especially in the case of small organs such as the kidneys.