DH
Dosik Hwang
Author with expertise in Positron Emission Tomography Imaging in Oncology
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
6
(33% Open Access)
Cited by:
562
h-index:
24
/
i10-index:
49
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

KIKI‐net: cross‐domain convolutional neural networks for reconstructing undersampled magnetic resonance images

Taejoon Eo et al.Apr 6, 2018
Purpose To demonstrate accurate MR image reconstruction from undersampled k‐space data using cross‐domain convolutional neural networks (CNNs) Methods Cross‐domain CNNs consist of 3 components: (1) a deep CNN operating on the k‐space (KCNN), (2) a deep CNN operating on an image domain (ICNN), and (3) an interleaved data consistency operations. These components are alternately applied, and each CNN is trained to minimize the loss between the reconstructed and corresponding fully sampled k‐spaces. The final reconstructed image is obtained by forward‐propagating the undersampled k‐space data through the entire network. Results Performances of K‐net (KCNN with inverse Fourier transform), I‐net (ICNN with interleaved data consistency), and various combinations of the 2 different networks were tested. The test results indicated that K‐net and I‐net have different advantages/disadvantages in terms of tissue‐structure restoration. Consequently, the combination of K‐net and I‐net is superior to single‐domain CNNs. Three MR data sets, the T 2 fluid‐attenuated inversion recovery (T 2 FLAIR) set from the Alzheimer's Disease Neuroimaging Initiative and 2 data sets acquired at our local institute (T 2 FLAIR and T 1 weighted), were used to evaluate the performance of 7 conventional reconstruction algorithms and the proposed cross‐domain CNNs, which hereafter is referred to as KIKI‐net. KIKI‐net outperforms conventional algorithms with mean improvements of 2.29 dB in peak SNR and 0.031 in structure similarity. Conclusion KIKI‐net exhibits superior performance over state‐of‐the‐art conventional algorithms in terms of restoring tissue structures and removing aliasing artifacts. The results demonstrate that KIKI‐net is applicable up to a reduction factor of 3 to 4 based on variable‐density Cartesian undersampling.
0

Results of the 2020 fastMRI Challenge for Machine Learning MR Image Reconstruction

Matthew Muckley et al.Apr 30, 2021
Accelerating MRI scans is one of the principal outstanding problems in the MRI research community. Towards this goal, we hosted the second fastMRI competition targeted towards reconstructing MR images with subsampled k-space data. We provided participants with data from 7,299 clinical brain scans (de-identified via a HIPAA-compliant procedure by NYU Langone Health), holding back the fully-sampled data from 894 of these scans for challenge evaluation purposes. In contrast to the 2019 challenge, we focused our radiologist evaluations on pathological assessment in brain images. We also debuted a new Transfer track that required participants to submit models evaluated on MRI scanners from outside the training set. We received 19 submissions from eight different groups. Results showed one team scoring best in both SSIM scores and qualitative radiologist evaluations. We also performed analysis on alternative metrics to mitigate the effects of background noise and collected feedback from the participants to inform future challenges. Lastly, we identify common failure modes across the submissions, highlighting areas of need for future research in the MRI reconstruction community.
0

Deep Learning-Based Amyloid PET Harmonization to Predict Cognitive Decline in Non-Demented Elderly

Yoon Choi et al.Aug 6, 2024
Abstract Background The robustness of conventional amyloid PET harmonization across tracers has been questioned. Purpose To evaluate deep learning-based harmonization of amyloid PET in predicting conversion from cognitively unimpaired (CU) to mild cognitive impairment (MCI) and MCI to Alzheimer’s disease (AD). Methods We developed an amyloid PET-based deep-learning model to classify participants with a clinical diagnosis of AD-dementia vs. CU across different tracers from the Alzheimer’s Disease Neuroimaging Initiative (ADNI), Japanese ADNI, and Australian Imaging, Biomarker, and Lifestyle cohorts (n = 1,050). The model output (DL-ADprob), with other prognostic factors, was evaluated for predicting cognitive decline in ADNI-MCI (n = 451) and Harvard Aging Brain Study (HABS)-CU (n = 271) participants using Cox regression and area under time-dependent receiver operating characteristics curve (tdAUC) at 4-year follow-up. Subgroup analyses were performed in the ADNI-MCI group for conversion from amyloid-positive to AD and from amyloid negative to positive. Intraclass correlation coefficient (ICC) of DL-ADprob between tracers was calculated in the Global Alzheimer's Association Interactive Network dataset (n = 155). Results DL-ADprob was independently prognostic in both ADNI-MCI (P &lt; 0.001) and HABS-CU (P = 0.048) sets. Adding DL-ADprob to other factors increased prognostic performances in both ADNI-MCI (tdAUC 0.758 [0.721–0.792] vs. 0.782 [0.742–0.818], tdAUC difference 0.023 [0.007–0.038]) and HABS-CU (tdAUC 0.846 [0.755–0.925] vs. 0.870 [0.773–0.943], tdAUC difference 0.022 [-0.004–0.053]). DL-ADprob was independently prognostic in amyloid-positive (P &lt; 0.001) and amyloid-negative subgroups (P = 0.007). DL-ADprob showed incremental prognostic value in amyloid-positive (tdAUC 0.666 [0.623–0.713] vs. 0.706 [0.657–0.755], tdAUC difference 0.039 [0.016–0.064]), but not in amyloid-negative (tdAUC 0.818 [0.757–0.882] vs. 0.816 [0.751–0.880], tdAUC difference -0.002 [-0.031–0.029]) subgroup. The pairwise ICCs of DL-ADprob between Pittsburgh compound B and florbetapir, florbetaben, and flutemetamol respectively ranged from 0.913 to 0.935. Conclusion Deep learning-based harmonization of amyloid PET improves cognitive decline prediction in non-demented elderly, suggesting it could complement conventional amyloid PET measures.