DS
Debdoot Sheet
Author with expertise in Radiomics in Medical Imaging Analysis
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
8
(38% Open Access)
Cited by:
1,588
h-index:
24
/
i10-index:
47
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

CHAOS Challenge - combined (CT-MR) healthy abdominal organ segmentation

Ali Kavur et al.Dec 25, 2020
Segmentation of abdominal organs has been a comprehensive, yet unresolved, research field for many years. In the last decade, intensive developments in deep learning (DL) have introduced new state-of-the-art segmentation systems. In order to expand the knowledge on these topics, the CHAOS - Combined (CT-MR) Healthy Abdominal Organ Segmentation challenge has been organized in conjunction with IEEE International Symposium on Biomedical Imaging (ISBI), 2019, in Venice, Italy. CHAOS provides both abdominal CT and MR data from healthy subjects for single and multiple abdominal organ segmentation. Five different but complementary tasks have been designed to analyze the capabilities of current approaches from multiple perspectives. The results are investigated thoroughly, compared with manual annotations and interactive methods. The analysis shows that the performance of DL models for single modality (CT / MR) can show reliable volumetric analysis performance (DICE: 0.98 $\pm$ 0.00 / 0.95 $\pm$ 0.01) but the best MSSD performance remain limited (21.89 $\pm$ 13.94 / 20.85 $\pm$ 10.63 mm). The performances of participating models decrease significantly for cross-modality tasks for the liver (DICE: 0.88 $\pm$ 0.15 MSSD: 36.33 $\pm$ 21.97 mm) and all organs (DICE: 0.85 $\pm$ 0.21 MSSD: 33.17 $\pm$ 38.93 mm). Despite contrary examples on different applications, multi-tasking DL models designed to segment all organs seem to perform worse compared to organ-specific ones (performance drop around 5\%). Besides, such directions of further research for cross-modality segmentation would significantly support real-world clinical applications. Moreover, having more than 1500 participants, another important contribution of the paper is the analysis on shortcomings of challenge organizations such as the effects of multiple submissions and peeking phenomena.
0

Simulating cross‐modal medical images using multi‐task adversarial learning of a deep convolutional neural network

Vikas Kumar et al.Jun 19, 2024
Abstract Computed tomography (CT) and magnetic resonance imaging (MRI) are widely utilized modalities for primary clinical imaging, providing crucial anatomical and pathological information for diagnosis. CT measures X‐ray attenuation, while MRI captures hydrogen atom density in tissues. Despite their distinct imaging physics principles, the signals obtained from both modalities when imaging the same subject can be represented by modality‐specific parameters and common latent variables related to anatomy and pathology. This paper proposes an adversarial learning approach using deep convolutional neural networks to disentangle these factors. This disentanglement allows us to simulate one modality from the other. Experimental results demonstrate our ability to generate synthetic CT images from MRI inputs using the Gold‐atlas dataset, which consists of paired CT‐MRI volumes. Patch‐based learning techniques and a visual Turing test are employed to model discriminator losses. Our approach achieves a mean absolute error of 36.81 4.46 HU, peak signal to noise ratio of 26.12 0.31 dB, and structural similarity measure of 0.9 0.02. Notably, the synthetic CT images accurately represent bones, gaseous cavities, and soft tissue textures, which can be challenging to visualize in MRI. The proposed model operates at an inference compute cost of 430.68 GFlops/voxel. This method can minimize radiation exposure by reducing the need for pre‐operative CT scans, providing an MR‐only alternative in clinical settings.