QF
Qiuyun Fan
Author with expertise in Magnetic Resonance Imaging Applications in Medicine
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
5
(80% Open Access)
Cited by:
8
h-index:
24
/
i10-index:
38
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
22

Estimating axial diffusivity in the NODDI model

Amy Howard et al.Oct 10, 2020
Abstract To estimate microstructure-related parameters from diffusion MRI data, biophysical models make strong, simplifying assumptions about the underlying tissue. The extent to which many of these assumptions are valid remains an open research question. This study was inspired by the disparity between the estimated intra-axonal axial diffusivity from literature and that typically assumed by the Neurite Orientation Dispersion and Density Imaging (NODDI) model ( d ║ = 1.7μm 2 /ms). We first demonstrate how changing the assumed axial diffusivity results in considerably different NODDI parameter estimates. Second, we illustrate the ability to estimate axial diffusivity as a free parameter of the model using high b-value data and an adapted NODDI framework. Using both simulated and in vivo data we investigate the impact of fitting to either real-valued or magnitude data, with Gaussian and Rician noise characteristics respectively, and what happens if we get the noise assumptions wrong in this high b-value and thus low SNR regime. Our results from real-valued human data estimate intra-axonal axial diffusivities of ~ 2 – 2.5μm 2 /ms, in line with current literature. Crucially, our results demonstrate the importance of accounting for both a rectified noise floor and/or a signal offset to avoid biased parameter estimates when dealing with low SNR data.
5

In vivo human whole-brain Connectom diffusion MRI dataset at 760 μm isotropic resolution

Fuyixue Wang et al.Oct 7, 2020
Abstract We present a whole-brain in vivo diffusion MRI (dMRI) dataset acquired at 760 μm isotropic resolution and sampled at 1260 q-space points across 9 two-hour sessions on a single healthy subject. The creation of this benchmark dataset is possible through the synergistic use of advanced acquisition hardware and software including the high-gradient-strength Connectom scanner, a custom-built 64-channel phased-array coil, a personalized motion-robust head stabilizer, a recently developed SNR-efficient dMRI acquisition method, and parallel imaging reconstruction with advanced ghost reduction algorithm. With its unprecedented resolution, SNR and image quality, we envision that this dataset will have a broad range of investigational, educational, and clinical applications that will advance the understanding of human brain structures and connectivity. This comprehensive dataset can also be used as a test bed for new modeling, sub-sampling strategies, denoising and processing algorithms, potentially providing a common testing platform for further development of in vivo high resolution dMRI techniques. Whole brain anatomical T 1 -weighted and T 2 -weighted images at submillimeter scale along with field maps are also made available.
5
Paper
Citation3
0
Save
0

Value of CT-Based Deep Learning Model in Differentiating Benign and Malignant Solid Pulmonary Nodules ≤ 8 mm

Yuan Li et al.May 1, 2024
Rationale and Objectives We examined the effectiveness of computed tomography (CT)-based deep learning (DL) models in differentiating benign and malignant solid pulmonary nodules (SPNs) ≤ 8 mm. Materials and Methods The study patients (n = 719) were divided into internal training, internal validation, and external validation cohorts; all had small SPNs and had undergone preoperative chest CTs and surgical resection. We developed five DL models incorporating features of the nodule and five different peri-nodular regions with the Multiscale Dual Attention Network (MDANet) to differentiate benign and malignant SPNs. We selected the best-performing model, which was then compared to four conventional algorithms (VGG19, ResNet50, ResNeXt50, and DenseNet121). Furthermore, another five DL models were constructed using MDANet to distinguish benign tumors from inflammatory nodules and the one performed best was selected out. Results Model 4, which incorporated the nodule and 15 mm peri-nodular region, best differentiated benign and malignant SPNs. The model had an area under the curve (AUC), accuracy, recall, precision, and F1-score of 0.730, 0.724, 0.711, 0.705, and 0.707 in the external validation cohort. Model 4 also performed better than the other four conventional algorithms. Model 8, which incorporated the nodule and 10 mm peri-nodular region, was the best model for distinguishing benign tumors from inflammatory nodules. The model had an AUC, accuracy, recall, precision, and F1-score of 0.871, 0.938, 0.863, 0.904, and 0.882 in the external validation cohort. Conclusion The study concludes that CT-based DL models built with MDANet can accurately discriminate among small benign and malignant SPNs, benign tumors and inflammatory nodules. We examined the effectiveness of computed tomography (CT)-based deep learning (DL) models in differentiating benign and malignant solid pulmonary nodules (SPNs) ≤ 8 mm. The study patients (n = 719) were divided into internal training, internal validation, and external validation cohorts; all had small SPNs and had undergone preoperative chest CTs and surgical resection. We developed five DL models incorporating features of the nodule and five different peri-nodular regions with the Multiscale Dual Attention Network (MDANet) to differentiate benign and malignant SPNs. We selected the best-performing model, which was then compared to four conventional algorithms (VGG19, ResNet50, ResNeXt50, and DenseNet121). Furthermore, another five DL models were constructed using MDANet to distinguish benign tumors from inflammatory nodules and the one performed best was selected out. Model 4, which incorporated the nodule and 15 mm peri-nodular region, best differentiated benign and malignant SPNs. The model had an area under the curve (AUC), accuracy, recall, precision, and F1-score of 0.730, 0.724, 0.711, 0.705, and 0.707 in the external validation cohort. Model 4 also performed better than the other four conventional algorithms. Model 8, which incorporated the nodule and 10 mm peri-nodular region, was the best model for distinguishing benign tumors from inflammatory nodules. The model had an AUC, accuracy, recall, precision, and F1-score of 0.871, 0.938, 0.863, 0.904, and 0.882 in the external validation cohort. The study concludes that CT-based DL models built with MDANet can accurately discriminate among small benign and malignant SPNs, benign tumors and inflammatory nodules.
0

Improved cortical surface reconstruction using sub-millimeter resolution MPRAGE by image denoising

Qiyuan Tian et al.Sep 20, 2020
Abstract Automatic cerebral cortical surface reconstruction is a useful tool for cortical anatomy quantification, analysis and visualization. Recently, the Human Connectome Project and several studies have shown the advantages of using T 1 -weighted magnetic resonance (MR) images with sub-millimeter isotropic spatial resolution instead of the standard 1-millimeter isotropic resolution for improved accuracy of cortical surface positioning and thickness estimation. Nonetheless, sub-millimeter resolution images are noisy by nature and require averaging multiple repetitions to increase the signal-to-noise ratio for precisely delineating the cortical boundary. The prolonged acquisition time and potential motion artifacts pose significant barriers to the wide adoption of cortical surface reconstruction at sub-millimeter resolution for a broad range of neuroscientific and clinical applications. We address this challenge by evaluating the cortical surface reconstruction resulting from denoised single-repetition sub-millimeter T 1 -weighted images. We systematically characterized the effects of image denoising on empirical data acquired at 0.6 mm isotropic resolution using three classical denoising methods, including denoising convolutional neural network (DnCNN), block-matching and 4-dimensional filtering (BM4D) and adaptive optimized non-local means (AONLM). The denoised single-repetition images were found to be highly similar to 6-repetition averaged images, with a low whole-brain averaged mean absolute difference of ∼0.016, high whole-brain averaged peak signal-to-noise ratio of ∼33.5 dB and structural similarity index of 0.92, and minimal gray matter–white matter contrast loss (2% to 9%). The whole-brain mean absolute discrepancies in gray–white surface placement, gray–CSF surface placement and cortical thickness estimation were lower than 165 μm, 155 μm and 145 μm—sufficiently accurate for most applications. The denoising performance is equivalent to averaging ∼2.5 repetitions of the data in terms of image similarity, and 1.6–2.2 repetitions in terms of the cortical surface placement accuracy. The scan-rescan precision of the cortical surface positioning and thickness estimation was lower than 170 μm. Our unique dataset and systematic characterization support the use of denoising methods for improved cortical surface reconstruction sub-millimeter resolution.
2

High-fidelity fast volumetric brain MRI using synergistic wave-controlled aliasing in parallel imaging and a hybrid denoising generative adversarial network

Ziyu Li et al.Jan 8, 2021
Purpose: Reducing scan times is important for wider adoption of high-resolution volumetric MRI in research and clinical practice. Emerging fast imaging and deep learning techniques provide promising strategies to accelerate volumetric MRI without compromising image quality. In this study, we aim to leverage an advanced fast imaging technique, wave-controlled aliasing in parallel imaging (Wave-CAIPI), and a novel denoising generative adversarial network (GAN) to achieve accelerated high-fidelity, high-signal-to-noise-ratio (SNR) volumetric MRI. Methods: 3D T2-weighted fluid-attenuated inversion recovery (FLAIR) image data were acquired on 33 multiple sclerosis (MS) patients using a prototype Wave-CAIPI sequence (acceleration factor R=3×2, 2.75 minutes) and a standard T2-SPACE FLAIR sequence (R=2, 7.25 minutes). A hybrid denoising GAN entitled "HDnGAN" composed of a 3D generator (i.e., a modified 3D U-Net entitled MU-Net) and a 2D discriminator was proposed to denoise Wave-CAIPI images with the standard FLAIR images as the target. HDnGAN was trained and validated on data from 25 MS patients by minimizing a combined content loss (i.e., mean squared error (MSE)) and adversarial loss with adjustable weight λ, and evaluated on data from 8 patients unseen during training. The quality of HDnGAN-denoised images was compared to those from other denoising methods including AONLM, BM4D, MU-Net, and 3D GAN in terms of their similarity to standard FLAIR images, quantified using MSE and VGG perceptual loss. The images from different methods were assessed by two neuroradiologists using a five-point score regarding sharpness, SNR, lesion conspicuity, and overall quality. Finally, the performance of these denoising methods was compared at higher noise levels using simulated data with added Rician noise. Results: HDnGAN effectively denoised noisy Wave-CAIPI images with sharpness and rich textural details, which could be adjusted by controlling λ. Quantitatively, HDnGAN (λ=10 -3 ) achieved low MSE (7.43×10 -4 ±0.94×10 -4 ) and the lowest VGG perceptual loss (1.09×10 -2 ±0.18×10 -2 ). The reader study showed that HDnGAN (λ=10 -3 ) significantly improved the SNR of Wave-CAIPI images (4.19±0.39 vs. 2.94±0.24, P<0.001), outperformed AONLM (4.25±0.56 vs. 3.75±0.90, P=0.015), BM4D (3.31±0.46, P<0.001), MU-Net (3.13±0.99, P<0.001) and 3D GAN (λ=10 -3 ) (3.31±0.46, P<0.001) regarding image sharpness, and outperformed MU-Net (4.21±0.67 vs. 3.29±1.28, P<0.001) and 3D GAN (λ=10 -3 ) (3.5±0.82, P=0.001) regarding lesion conspicuity. The overall quality score of HDnGAN (λ=10 -3 ) (4.25±0.43) was significantly higher than those from Wave-CAIPI (3.69±0.46, P=0.003), BM4D (3.50±0.71, P=0.001), MU-Net (3.25±0.75, P<0.001), and 3D GAN (λ=10 -3 ) (3.50±0.50, P<0.001), with no significant difference compared to standard FLAIR images (4.38±0.48, P=0.333). The advantages of HDnGAN over other methods were more obvious at higher noise levels. Conclusion: HDnGAN provides robust and feasible denoising while preserving rich textural detail in empirical volumetric MRI data and is superior on both quantitative and qualitative evaluation compared to the original Wave-CAIPI images and images denoised using standard methods. HDnGAN concurrently benefits from the improved image synthesis performance of the 3D convolution and the increased number of samples for training the 2D discriminator from a limited number of subjects. Our study supports the use of HDnGAN in combination with modern fast imaging techniques such as Wave-CAIPI to achieve high-fidelity fast volumetric MRI.