HW
Haoqian Wang
Author with expertise in Fluorescence Microscopy Techniques
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
10
(50% Open Access)
Cited by:
234
h-index:
30
/
i10-index:
62
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

STAR: A Structure and Texture Aware Retinex Model

Jun Xu et al.Jan 1, 2020
Retinex theory is developed mainly to decompose an image into the illumination and reflectance components by analyzing local image derivatives. In this theory, larger derivatives are attributed to the changes in reflectance, while smaller derivatives are emerged in the smooth illumination. In this paper, we utilize exponentiated local derivatives (with an exponent γ) of an observed image to generate its structure map and texture map. The structure map is produced by been amplified with γ > 1, while the texture map is generated by been shrank with γ < 1. To this end, we design exponential filters for the local derivatives, and present their capability on extracting accurate structure and texture maps, influenced by the choices of exponents γ. The extracted structure and texture maps are employed to regularize the illumination and reflectance components in Retinex decomposition. A novel Structure and Texture Aware Retinex (STAR) model is further proposed for illumination and reflectance decomposition of a single image. We solve the STAR model by an alternating optimization algorithm. Each sub-problem is transformed into a vectorized least squares regression, with closed-form solutions. Comprehensive experiments on commonly tested datasets demonstrate that, the proposed STAR model produce better quantitative and qualitative performance than previous competing methods, on illumination and reflectance decomposition, low-light image enhancement, and color correction. The code is publicly available at https://github.com/csjunxu/STAR.
12

Real-time denoising of fluorescence time-lapse imaging enables high-sensitivity observations of biological dynamics beyond the shot-noise limit

Xinyang Li et al.Mar 14, 2022
Abstract A fundamental challenge in fluorescence microscopy is the inherent photon shot noise caused by the inevitable stochasticity of photon detection. Noise increases measurement uncertainty, degrades image quality, and limits imaging resolution, speed, and sensitivity. To achieve high-sensitivity imaging beyond the shot-noise limit, we provide DeepCAD-RT, a versatile self-supervised method for effective noise suppression of fluorescence time-lapse imaging. We made comprehensive optimizations to reduce its data dependency, processing time, and memory consumption, finally allowing real-time processing on a two-photon microscope. High imaging signal-to-noise ratio (SNR) can be acquired with 10-fold fewer fluorescence photons. Meanwhile, the self-supervised superiority makes it a practical tool in fluorescence microscopy where ground-truth images for training are hard to obtain. We demonstrated the utility of DeepCAD-RT in extensive experiments, including in vivo calcium imaging of various model organisms (mouse, zebrafish larva, fruit fly), 3D migration of neutrophils after acute brain injury, and 3D dynamics of cortical ATP (adenosine 5’-triphosphate) release. DeepCAD-RT will facilitate the morphological and functional interrogation of biological dynamics with minimal photon budget.
1

Spatial redundancy transformer for self-supervised fluorescence image denoising

Xinyang Li et al.Jun 5, 2023
Abstract Fluorescence imaging with high signal-to-noise ratios has become the foundation of accurate visualization and analysis of biological phenomena. However, the inevitable photon shot noise poses a formidable challenge on imaging sensitivity. In this paper, we provide a spatial redundancy denoising transformer (SRDTrans) to remove noise from fluorescence images in a self-supervised manner. First, a sampling strategy based on spatial redundancy is proposed to extract adjacent orthogonal training pairs, which eliminates the dependence on high imaging speed. Secondly, to break the performance bottleneck of convolutional neural networks (CNNs), we designed a lightweight spatiotemporal transformer architecture to capture long-range dependencies and high-resolution features at a low computational cost. SRDTrans can overcome the inherent spectral bias of CNNs and restore high-frequency information without producing over-smoothed structures and distorted fluorescence traces. Finally, we demonstrate the state-of-the-art denoising performance of SRDTrans on single-molecule localization microscopy and two-photon volumetric calcium imaging. SRDTrans does not contain any assumptions about the imaging process and the sample, thus can be easily extended to a wide range of imaging modalities and biological applications.
0

Unsupervised content-preserving image transformation for optical microscopy

Xinyang Li et al.Nov 21, 2019
The advent of deep learning and open access to a substantial collection of imaging data provide a potential solution to computational image transformation, which is gradually changing the landscape of optical imaging and biomedical research. However, current deep-learning implementations usually operate in a supervised manner, and the reliance on a laborious and error-prone data annotation procedure remains a barrier towards more general applicability. Here, we propose an unsupervised image transformation enlightened by cycle-consistent generative adversarial networks (cycleGANs) to facilitate the utilization of deep learning in optical microscopy. By incorporating the saliency constraint into cycleGAN, the unsupervised approach, dubbed as content-preserving cycleGAN (c2GAN), can learn the mapping between two image domains and avoid the misalignment of salient objects without paired training data. We demonstrate several image transformation tasks such as fluorescence image restoration, whole-slide histological coloration, and virtual fluorescent labeling. Quantitative evaluations prove that c2GAN achieves robust and high-fidelity image transformation across different imaging modalities and various data configurations. We anticipate that our framework will encourage a paradigm shift in training neural networks and democratize deep learning algorithms for optical imaging.