XW
Xiaosong Wang
Author with expertise in Radiomics in Medical Imaging Analysis
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
12
(42% Open Access)
Cited by:
2,481
h-index:
37
/
i10-index:
74
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Speech recognition in noise as a function of the number of spectral channels: Comparison of acoustic hearing and cochlear implants

Lendra Friesen et al.Aug 1, 2001
Speech recognition was measured as a function of spectral resolution (number of spectral channels) and speech-to-noise ratio in normal-hearing (NH) and cochlear-implant (CI) listeners. Vowel, consonant, word, and sentence recognition were measured in five normal-hearing listeners, ten listeners with the Nucleus-22 cochlear implant, and nine listeners with the Advanced Bionics Clarion cochlear implant. Recognition was measured as a function of the number of spectral channels (noise bands or electrodes) at signal-to-noise ratios of +15, +10, +5, 0 dB, and in quiet. Performance with three different speech processing strategies (SPEAK, CIS, and SAS) was similar across all conditions, and improved as the number of electrodes increased (up to seven or eight) for all conditions. For all noise levels, vowel and consonant recognition with the SPEAK speech processor did not improve with more than seven electrodes, while for normal-hearing listeners, performance continued to increase up to at least 20 channels. Speech recognition on more difficult speech materials (word and sentence recognition) showed a marginally significant increase in Nucleus-22 listeners from seven to ten electrodes. The average implant score on all processing strategies was poorer than scores of NH listeners with similar processing. However, the best CI scores were similar to the normal-hearing scores for that condition (up to seven channels). CI listeners with the highest performance level increased in performance as the number of electrodes increased up to seven, while CI listeners with low levels of speech recognition did not increase in performance as the number of electrodes was increased beyond four. These results quantify the effect of number of spectral channels on speech recognition in noise and demonstrate that most CI subjects are not able to fully utilize the spectral information provided by the number of electrodes used in their implant.
0

DeepLesion: automated mining of large-scale lesion annotations and universal lesion detection with deep learning

Ke Yan et al.Jul 19, 2018
Extracting, harvesting, and building large-scale annotated radiological image datasets is a greatly important yet challenging problem. Meanwhile, vast amounts of clinical annotations have been collected and stored in hospitals' picture archiving and communication systems (PACS). These types of annotations, also known as bookmarks in PACS, are usually marked by radiologists during their daily workflow to highlight significant image findings that may serve as reference for later studies. We propose to mine and harvest these abundant retrospective medical data to build a large-scale lesion image dataset. Our process is scalable and requires minimum manual annotation effort. We mine bookmarks in our institute to develop DeepLesion, a dataset with 32,735 lesions in 32,120 CT slices from 10,594 studies of 4,427 unique patients. There are a variety of lesion types in this dataset, such as lung nodules, liver tumors, enlarged lymph nodes, and so on. It has the potential to be used in various medical image applications. Using DeepLesion, we train a universal lesion detector that can find all types of lesions with one unified framework. In this challenging task, the proposed lesion detector achieves a sensitivity of 81.1% with five false positives per image.
0

Generalizing Deep Learning for Medical Image Segmentation to Unseen Domains via Deep Stacked Transformation

Ling Zhang et al.Feb 12, 2020
Recent advances in deep learning for medical image segmentation demonstrate expert-level accuracy. However, application of these models in clinically realistic environments can result in poor generalization and decreased accuracy, mainly due to the domain shift across different hospitals, scanner vendors, imaging protocols, and patient populations etc. Common transfer learning and domain adaptation techniques are proposed to address this bottleneck. However, these solutions require data (and annotations) from the target domain to retrain the model, and is therefore restrictive in practice for widespread model deployment. Ideally, we wish to have a trained (locked) model that can work uniformly well across unseen domains without further training. In this paper, we propose a deep stacked transformation approach for domain generalization. Specifically, a series of ${n}$ stacked transformations are applied to each image during network training. The underlying assumption is that the “expected” domain shift for a specific medical imaging modality could be simulated by applying extensive data augmentation on a single source domain, and consequently, a deep model trained on the augmented “big” data (BigAug) could generalize well on unseen domains. We exploit four surprisingly effective, but previously understudied, image-based characteristics for data augmentation to overcome the domain generalization problem. We train and evaluate the BigAug model (with ${n}={9}$ transformations) on three different 3D segmentation tasks (prostate gland, left atrial, left ventricle) covering two medical imaging modalities (MRI and ultrasound) involving eight publicly available challenge datasets. The results show that when training on relatively small dataset (n = 10~32 volumes, depending on the size of the available datasets) from a single source domain: (i) BigAug models degrade an average of 11%(Dice score change) from source to unseen domain, substantially better than conventional augmentation (degrading 39%) and CycleGAN-based domain adaptation method (degrading 25%), (ii) BigAug is better than “shallower” stacked transforms (i.e. those with fewer transforms) on unseen domains and demonstrates modest improvement to conventional augmentation on the source domain, (iii) after training with BigAug on one source domain, performance on an unseen domain is similar to training a model from scratch on that domain when using the same number of training samples. When training on large datasets (n = 465 volumes) with BigAug, (iv) application to unseen domains reaches the performance of state-of-the-art fully supervised models that are trained and tested on their source domains. These findings establish a strong benchmark for the study of domain generalization in medical imaging, and can be generalized to the design of highly robust deep segmentation models for clinical deployment.
0

The circRNA circSEPT9 mediated by E2F1 and EIF4A3 facilitates the carcinogenesis and development of triple-negative breast cancer

Xiaying Zheng et al.Apr 7, 2020
Abstract Background Increasing studies have shown that circRNA is closely related to the carcinogenesis and development of many cancers. However, biological functions and the underlying molecular mechanism of circRNAs in triple-negative breast cancer (TNBC) remain largely unclear so far. Methods Here, we investigated the expression pattern of circRNAs in four pairs of TNBC tissues and paracancerous normal tissues using RNA-sequencing. The expression and prognostic significance of circSEPT9 were evaluated with qRT-PCR and in situ hybridization in two TNBC cohorts. The survival curves were drawn by the Kaplan-Meier method, and statistical significance was estimated with the log-rank test. A series of in vitro and in vivo functional experiments were executed to investigate the role of circSEPT9 in the carcinogenesis and development of TNBC. Mechanistically, we explored the potential regulatory effects of E2F1 and EIF4A3 on biogenesis of circSEPT9 with chromatin immunoprecipitation (ChIP), luciferase reporter and RNA immunoprecipitation (RIP) assays. Furthermore, fluorescent in situ hybridization (FISH), luciferase reporter and biotin-coupled RNA pull-down assays were implemented to verify the relationship between the circSEPT9 and miR-637 in TNBC. Results Increased expression of circSEPT9 was found in TNBC tissues, which was positively correlated with advanced clinical stage and poor prognosis. Knockdown of circSEPT9 significantly suppressed the proliferation, migration and invasion of TNBC cells, induced apoptosis and autophagy in TNBC cells as well as inhibited tumor growth and metastasis in vivo. Whereas up-regulation of circSEPT9 exerted opposite effects. Further mechanism research demonstrated that circSEPT9 could regulate the expression of Leukemia Inhibitory Factor (LIF) via sponging miR-637 and activate LIF/Stat3 signaling pathway involved in progression of TNBC. More importantly, we discovered that E2F1 and EIF4A3 might promote the biogenesis of circSEPT9. Conclusions Our data reveal that the circSEPT9 mediated by E2F1 and EIF4A3 facilitates the carcinogenesis and development of triple-negative breast cancer through circSEPT9/miR-637/LIF axis. Therefore, circSEPT9 could be used as a potential prognostic marker and therapeutical target for TNBC.
0
Citation315
0
Save
0

When Radiology Report Generation Meets Knowledge Graph

Yixiao Zhang et al.Apr 3, 2020
Automatic radiology report generation has been an attracting research problem towards computer-aided diagnosis to alleviate the workload of doctors in recent years. Deep learning techniques for natural image captioning are successfully adapted to generating radiology reports. However, radiology image reporting is different from the natural image captioning task in two aspects: 1) the accuracy of positive disease keyword mentions is critical in radiology image reporting in comparison to the equivalent importance of every single word in a natural image caption; 2) the evaluation of reporting quality should focus more on matching the disease keywords and their associated attributes instead of counting the occurrence of N-gram. Based on these concerns, we propose to utilize a pre-constructed graph embedding module (modeled with a graph convolutional neural network) on multiple disease findings to assist the generation of reports in this work. The incorporation of knowledge graph allows for dedicated feature learning for each disease finding and the relationship modeling between them. In addition, we proposed a new evaluation metric for radiology image reporting with the assistance of the same composed graph. Experimental results demonstrate the superior performance of the methods integrated with the proposed graph embedding module on a publicly accessible dataset (IU-RR) of chest radiographs compared with previous approaches using both the conventional evaluation metrics commonly adopted for image captioning and our proposed ones.
0
Citation203
0
Save
Load More