XY
Xin Yang
Author with expertise in Deep Learning in Computer Vision and Image Recognition
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
14
(64% Open Access)
Cited by:
3,218
h-index:
33
/
i10-index:
66
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Deep Learning Techniques for Automatic MRI Cardiac Multi-Structures Segmentation and Diagnosis: Is the Problem Solved?

Olivier Bernard et al.May 17, 2018
Delineation of the left ventricular cavity, myocardium, and right ventricle from cardiac magnetic resonance images (multi-slice 2-D cine MRI) is a common clinical task to establish diagnosis. The automation of the corresponding tasks has thus been the subject of intense research over the past decades. In this paper, we introduce the "Automatic Cardiac Diagnosis Challenge" dataset (ACDC), the largest publicly available and fully annotated dataset for the purpose of cardiac MRI (CMR) assessment. The dataset contains data from 150 multi-equipments CMRI recordings with reference measurements and classification from two medical experts. The overarching objective of this paper is to measure how far state-of-the-art deep learning methods can go at assessing CMRI, i.e., segmenting the myocardium and the two ventricles as well as classifying pathologies. In the wake of the 2017 MICCAI-ACDC challenge, we report results from deep learning methods provided by nine research groups for the segmentation task and four groups for the classification task. Results show that the best methods faithfully reproduce the expert analysis, leading to a mean value of 0.97 correlation score for the automatic extraction of clinical indices and an accuracy of 0.96 for automatic diagnosis. These results clearly open the door to highly accurate and fully automatic analysis of cardiac CMRI. We also identify scenarios for which deep learning methods are still failing. Both the dataset and detailed results are publicly available online, while the platform will remain open for new submissions.
0

3D deeply supervised network for automated segmentation of volumetric medical images

Qi Dou et al.May 8, 2017
While deep convolutional neural networks (CNNs) have achieved remarkable success in 2D medical image segmentation, it is still a difficult task for CNNs to segment important organs or structures from 3D medical images owing to several mutually affected challenges, including the complicated anatomical environments in volumetric images, optimization difficulties of 3D networks and inadequacy of training samples. In this paper, we present a novel and efficient 3D fully convolutional network equipped with a 3D deep supervision mechanism to comprehensively address these challenges; we call it 3D DSN. Our proposed 3D DSN is capable of conducting volume-to-volume learning and inference, which can eliminate redundant computations and alleviate the risk of over-fitting on limited training data. More importantly, the 3D deep supervision mechanism can effectively cope with the optimization problem of gradients vanishing or exploding when training a 3D deep model, accelerating the convergence speed and simultaneously improving the discrimination capability. Such a mechanism is developed by deriving an objective function that directly guides the training of both lower and upper layers in the network, so that the adverse effects of unstable gradient changes can be counteracted during the training procedure. We also employ a fully connected conditional random field model as a post-processing step to refine the segmentation results. We have extensively validated the proposed 3D DSN on two typical yet challenging volumetric medical image segmentation tasks: (i) liver segmentation from 3D CT scans and (ii) whole heart and great vessels segmentation from 3D MR images, by participating two grand challenges held in conjunction with MICCAI. We have achieved competitive segmentation results to state-of-the-art approaches in both challenges with a much faster speed, corroborating the effectiveness of our proposed 3D DSN.
0

Standard Plane Localization in Fetal Ultrasound via Domain Transferred Deep Neural Networks

Hao Chen et al.Apr 21, 2015
Automatic localization of the standard plane containing complicated anatomical structures in ultrasound (US) videos remains a challenging problem. In this paper, we present a learning-based approach to locate the fetal abdominal standard plane (FASP) in US videos by constructing a domain transferred deep convolutional neural network (CNN). Compared with previous works based on low-level features, our approach is able to represent the complicated appearance of the FASP and hence achieve better classification performance. More importantly, in order to reduce the overfitting problem caused by the small amount of training samples, we propose a transfer learning strategy, which transfers the knowledge in the low layers of a base CNN trained from a large database of natural images to our task-specific CNN. Extensive experiments demonstrate that our approach outperforms the state-of-the-art method for the FASP localization as well as the CNN only trained on the limited US training samples. The proposed approach can be easily extended to other similar medical image computing problems, which often suffer from the insufficient training samples when exploiting the deep CNN to represent high-level features.
0

Volumetric ConvNets with Mixed Residual Connections for Automated Prostate Segmentation from 3D MR Images

Lequan Yu et al.Feb 10, 2017
Automated prostate segmentation from 3D MR images is very challenging due to large variations of prostate shape and indistinct prostate boundaries. We propose a novel volumetric convolutional neural network (ConvNet) with mixed residual connections to cope with this challenging problem. Compared with previous methods, our volumetric ConvNet has two compelling advantages. First, it is implemented in a 3D manner and can fully exploit the 3D spatial contextual information of input data to perform efficient, precise and volume-to-volume prediction. Second and more important, the novel combination of residual connections (i.e., long and short) can greatly improve the training efficiency and discriminative capability of our network by enhancing the information propagation within the ConvNet both locally and globally. While the forward propagation of location information can improve the segmentation accuracy, the smooth backward propagation of gradient flow can accelerate the convergence speed and enhance the discrimination capability. Extensive experiments on the open MICCAI PROMISE12 challenge dataset corroborated the effectiveness of the proposed volumetric ConvNet with mixed residual connections. Our method ranked the first in the challenge, outperforming other competitors by a large margin with respect to most of evaluation metrics. The proposed volumetric ConvNet is general enough and can be easily extended to other medical image analysis tasks, especially ones with limited training data.
0

Patch-Based Output Space Adversarial Learning for Joint Optic Disc and Cup Segmentation

Shujun Wang et al.Feb 19, 2019
Glaucoma is a leading cause of irreversible blindness. Accurate segmentation of the optic disc (OD) and cup (OC) from fundus images is beneficial to glaucoma screening and diagnosis. Recently, convolutional neural networks demonstrate promising progress in joint OD and OC segmentation. However, affected by the domain shift among different datasets, deep networks are severely hindered in generalizing across different scanners and institutions. In this paper, we present a novel patchbased Output Space Adversarial Learning framework (pOSAL) to jointly and robustly segment the OD and OC from different fundus image datasets. We first devise a lightweight and efficient segmentation network as a backbone. Considering the specific morphology of OD and OC, a novel morphology-aware segmentation loss is proposed to guide the network to generate accurate and smooth segmentation. Our pOSAL framework then exploits unsupervised domain adaptation to address the domain shift challenge by encouraging the segmentation in the target domain to be similar to the source ones. Since the whole-segmentationbased adversarial loss is insufficient to drive the network to capture segmentation details, we further design the pOSAL in a patch-based fashion to enable fine-grained discrimination on local segmentation details. We extensively evaluate our pOSAL framework and demonstrate its effectiveness in improving the segmentation performance on three public retinal fundus image datasets, i.e., Drishti-GS, RIM-ONE-r3, and REFUGE. Furthermore, our pOSAL framework achieved the first place in the OD and OC segmentation tasks in MICCAI 2018 Retinal Fundus Glaucoma Challenge.
0

Evaluation of algorithms for Multi-Modality Whole Heart Segmentation: An open-access grand challenge

Xiahai Zhuang et al.Aug 1, 2019
Knowledge of whole heart anatomy is a prerequisite for many clinical applications. Whole heart segmentation (WHS), which delineates substructures of the heart, can be very valuable for modeling and analysis of the anatomy and functions of the heart. However, automating this segmentation can be challenging due to the large variation of the heart shape, and different image qualities of the clinical data. To achieve this goal, an initial set of training data is generally needed for constructing priors or for training. Furthermore, it is difficult to perform comparisons between different methods, largely due to differences in the datasets and evaluation metrics used. This manuscript presents the methodologies and evaluation results for the WHS algorithms selected from the submissions to the Multi-Modality Whole Heart Segmentation (MM-WHS) challenge, in conjunction with MICCAI 2017. The challenge provided 120 three-dimensional cardiac images covering the whole heart, including 60 CT and 60 MRI volumes, all acquired in clinical environments with manual delineation. Ten algorithms for CT data and eleven algorithms for MRI data, submitted from twelve groups, have been evaluated. The results showed that the performance of CT WHS was generally better than that of MRI WHS. The segmentation of the substructures for different categories of patients could present different levels of challenge due to the difference in imaging and variations of heart shapes. The deep learning (DL)-based methods demonstrated great potential, though several of them reported poor results in the blinded evaluation. Their performance could vary greatly across different network structures and training strategies. The conventional algorithms, mainly based on multi-atlas segmentation, demonstrated good performance, though the accuracy and computational efficiency could be limited. The challenge, including provision of the annotated training data and the blinded evaluation for submitted algorithms on the test data, continues as an ongoing benchmarking resource via its homepage (www.sdspeople.fudan.edu.cn/zhuangxiahai/0/mmwhs/).
0

Tiny drone object detection in videos guided by the bio-inspired magnocellular computation model

Gang Wang et al.Jun 1, 2024
Detecting drones in infrared videos is highly desired in many realistic scenarios, e.g., unauthorized drone monitoring around airports. Nevertheless, automated drone detection is rather challenging when the targets appear as tiny objects (≤10×10 pixels) against complex backgrounds. Conventional object detection algorithms, which mainly use static visual features, can hardly distinguish tiny objects from undesired artefacts in complex backgrounds. To alleviate this problem, we learn from the early biological visual pathway (including the parvocellular and magnocellular pathways), which process static and motion information simultaneously. Therefore, we propose a magnocellular inspired method for video tiny-object detection (Magno-VTOD) that integrates both static and motion visual information. The Magno-VTOD firstly employs a retinal magnocellular computation model to extract the motion strength of moving objects. The motion responses are then used to enhance the areas of the flying tiny drones effectively and efficiently, thereby facilitating the subsequent target detection procedure. We implement the video tiny-object detection method based on the widely adopted deep neural networks guided by the magnocellular computation model. Experimental results obtained on the large-scale Anti-UAV dataset (304451 video frames) validate that the proposed Magno-VTOD method significantly outperforms the competing state-of-the-art object detection methods on the tiny drone detection task. Particularly, the AP value is increased by 15.4% for tiny object detection, and by 17.1%/13.7% against wood/mountain backgrounds.
0
Citation1
0
Save
0

Assessment of left ventricular ejection fraction in artificial intelligence based on left ventricular opacification

Ye Zhu et al.Jan 1, 2024
Background Left ventricular opacification (LVO) improves the accuracy of left ventricular ejection fraction (LVEF) by enhancing the visualization of the endocardium. Manual delineation of the endocardium by sonographers has observer variability. Artificial intelligence (AI) has the potential to improve the reproducibility of LVO to assess LVEF. Objectives The aim was to develop an AI model and evaluate the feasibility and reproducibility of LVO in the assessment of LVEF. Methods This retrospective study included 1305 echocardiography of 797 patients who had LVO at the Department of Ultrasound Medicine, Union Hospital, Huazhong University of Science and Technology from 2013 to 2021. The AI model was developed by 5-fold cross validation. The validation datasets included 50 patients prospectively collected in our center and 42 patients retrospectively collected in the external institution. To evaluate the differences between LV function determined by AI and sonographers, the median absolute error (MAE), spearman correlation coefficient, and intraclass correlation coefficient (ICC) were calculated. Results In LVO, the MAE of LVEF between AI and manual measurements was 2.6% in the development cohort, 2.5% in the internal validation cohort, and 2.7% in the external validation cohort. Compared with two-dimensional echocardiography (2DE), the left ventricular (LV) volumes and LVEF of LVO measured by AI correlated significantly with manual measurements. AI model provided excellent reliability for the LV parameters of LVO (ICC > 0.95). Conclusions AI-assisted LVO enables more accurate identification of the LV endocardium and reduces observer variability, providing a more reliable way for assessing LV function.
Load More