ZN
Zhenyuan Ning
Author with expertise in Image Segmentation Techniques
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
5
(20% Open Access)
Cited by:
0
h-index:
14
/
i10-index:
18
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Cross-view discrepancy-dependency network for volumetric medical image segmentation

Shengzhou Zhong et al.Aug 1, 2024
The limited data poses a crucial challenge for deep learning-based volumetric medical image segmentation, and many methods have tried to represent the volume by its subvolumes (i.e., multi-view slices) for alleviating this issue. However, such methods generally sacrifice inter-slice spatial continuity. Currently, a promising avenue involves incorporating multi-view information into the network to enhance volume representation learning, but most existing studies tend to overlook the discrepancy and dependency across different views, ultimately limiting the potential of multi-view representations. To this end, we propose a cross-view discrepancy-dependency network (CvDd-Net) to task with volumetric medical image segmentation, which exploits multi-view slice prior to assist volume representation learning and explore view discrepancy and view dependency for performance improvement. Specifically, we develop a discrepancy-aware morphology reinforcement (DaMR) module to effectively learn view-specific representation by mining morphological information (i.e., boundary and position of object). Besides, we design a dependency-aware information aggregation (DaIA) module to adequately harness the multi-view slice prior, enhancing individual view representations of the volume and integrating them based on cross-view dependency. Extensive experiments on four medical image datasets (i.e., Thyroid, Cervix, Pancreas, and Glioma) demonstrate the efficacy of the proposed method on both fully-supervised and semi-supervised tasks.
0

Integrative framework of cross-module deep biomarker for the prognosis of clear cell renal cell carcinoma: A retrospective TCGA project

Zhenyuan Ning et al.Aug 28, 2019
Purpose: We aimed to integrate cross-module data for predicting the prognosis of clear cell renal cell carcinoma (ccRCC) based on deep learning and to explore the relationship between deep features from images and eigengenes form gene data. Experimental design: A total of 209 patients with ccRCC with computed tomography (CT), histopathological images and RNA sequences were enrolled. A deep biomarker-based integrative framework was proposed to construct a prognostic model. Deep features extracted from CT and histopathological images by using deep learning combined with eigengenes generated from functional genomic data were used to predict ccRCC prognosis. Furthermore, the relationship between deep features and eigengenes was explored, and two survival subgroups identified by integrative cross-module biomarkers were subjected to functional analysis. Results: The model based on the integrative framework stratified two subgroups of patients with a significant prognostic difference (P = 6.51e-6, concordance index [C-index] = 0.808, 95% confidence interval [CI] = 0.728-0.888) and outperformed the prediction based on their individual biomarkers in the independent validation cohort (n = 70, gene data: C-index = 0.452, CI = 0.336-0.567; histopathological images: C-index = 0.677, CI = 0.577-0.776; CT images: C-index = 0.774, CI = 0.670-0.879). On the basis of statistical relationship, deep features correlated or complemented with eigengenes both enhanced the predictive performance of eigengenes (P = 0.439, correlated: C-index = 0.785, CI = 0.685-0.886; complemented: C-index = 0.778, CI = 0.683-0.872). The functional analysis of subgroups also exhibited reasonable results. Conclusion: The model based on the integrative framework of cross-module deep biomarkers can efficiently predict ccRCC prognosis, and the framework with a code is shared to act as a reliable and powerful tool for further studies.
0

A brain subcortical segmentation tool based on anatomy attentional fusion network for developing macaques

Tao Zhong et al.May 25, 2024
Magnetic Resonance Imaging (MRI) plays a pivotal role in the accurate measurement of brain subcortical structures in macaques, which is crucial for unraveling the complexities of brain structure and function, thereby enhancing our understanding of neurodegenerative diseases and brain development. However, due to significant differences in brain size, structure, and imaging characteristics between humans and macaques, computational tools developed for human neuroimaging studies often encounter obstacles when applied to macaques. In this context, we propose an Anatomy Attentional Fusion Network (AAF-Net), which integrates multimodal MRI data with anatomical constraints in a multi-scale framework to address the challenges posed by the dynamic development, regional heterogeneity, and age-related size variations of the juvenile macaque brain, thus achieving precise subcortical segmentation. Specifically, we generate a Signed Distance Map (SDM) based on the initial rough segmentation of the subcortical region by a network as an anatomical constraint, providing comprehensive information on positions, structures, and morphology. Then we construct AAF-Net to fully fuse the SDM anatomical constraints and multimodal images for refined segmentation. To thoroughly evaluate the performance of our proposed tool, over 700 macaque MRIs from 19 datasets were used in this study. Specifically, we employed two manually labeled longitudinal macaque datasets to develop the tool and complete four-fold cross-validations. Furthermore, we incorporated various external datasets to demonstrate the proposed tool's generalization capabilities and promise in brain development research. We have made this tool available as an open-source resource at https://github.com/TaoZhong11/Macaque_subcortical_segmentation for direct application.
0

nBEST: Deep-learning-based non-human primates Brain Extraction and Segmentation Toolbox across ages, sites and species

Tao Zhong et al.May 24, 2024
Accurate processing and analysis of non-human primate (NHP) brain magnetic resonance imaging (MRI) serves an indispensable role in understanding brain evolution, development, aging, and diseases. Despite the accumulation of diverse NHP brain MRI datasets at various developmental stages and from various imaging sites/scanners, existing computational tools designed for human MRI typically perform poor on NHP data, due to huge differences in brain sizes, morphologies, and imaging appearances across species, sites, and ages, highlighting the imperative for NHP-specialized MRI processing tools. To address this issue, in this paper, we present a robust, generic, and fully automated computational pipeline, called non-human primates Brain Extraction and Segmentation Toolbox (nBEST), whose main functionality includes brain extraction, non-cerebrum removal, and tissue segmentation. Building on cutting-edge deep learning techniques by employing lifelong learning to flexibly integrate data from diverse NHP populations and innovatively constructing 3D U-NeXt architecture, nBEST can well handle structural NHP brain MR images from multi-species, multi-site, and multi-developmental-stage (from neonates to the elderly). We extensively validated nBEST based on, to our knowledge, the largest assemblage dataset in NHP brain studies, encompassing 1,469 scans with 11 species (e.g., rhesus macaques, cynomolgus macaques, chimpanzees, marmosets, squirrel monkeys, etc.) from 23 independent datasets. Compared to alternative tools, nBEST outperforms in precision, applicability, robustness, comprehensiveness, and generalizability, greatly benefiting downstream longitudinal, cross-sectional, and cross-species quantitative analyses. We have made nBEST an open-source toolbox (https://github.com/TaoZhong11/nBEST) and we are committed to its continual refinement through lifelong learning with incoming data to greatly contribute to the research field.