ZJ
Zhiying Jiang
Author with expertise in Image Feature Retrieval and Recognition Techniques
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
5
(40% Open Access)
Cited by:
0
h-index:
10
/
i10-index:
10
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
1

An Excitatory Projection from the Basal Forebrain to the Ventral Tegmental Area Underlying Anorexia-like Phenotypes

Jing Cai et al.May 7, 2023
Abstract Adaptation to potential threat cues in feeding regulation is key for animal survival. Maladaptation in balancing internal energy needs and external threat cues may result in eating disorders. However, brain mechanisms underlying such maladaptation remain elusive. Here, we identified that the basal forebrain (BF) sends glutamatergic projections to glutamatergic neurons in the ventral tegmental area (VTA). Glutamatergic neurons in both the BF and the VTA displayed correlated responses to various external stressors. Notably, in vivo manipulation of BF terminals in the VTA revealed that the glutamatergic BF➔VTA circuit reduces appetite, increases locomotion, and elicits avoidance. In consistence, activation of VTA glutamatergic neurons reduced body weight, blunted food motivation, and caused hyperactivity with behavioral signs of anxiety, all hallmarks of typical anorexia phenotypes. Importantly, activation of BF glutamatergic terminals in the VTA reduced dopamine release in the nucleus accumbens (NAc). Collectively, our results point to overactivation of the glutamatergic BF➔VTA circuit as a potential cause of anorexia-like phenotypes involving reduced dopamine release.
0

Multispectral Image Stitching via Global-Aware Quadrature Pyramid Regression

Zhiying Jiang et al.Jan 1, 2024
Image stitching is a critical task in panorama perception that involves combining images captured from different viewing positions to reconstruct a wider field-of-view (FOV) image. Existing visible image stitching methods suffer from performance drops under severe conditions since environmental factors can easily impair visible images. In contrast, infrared images possess greater penetrating ability and are less affected by environmental factors. Therefore, we propose an infrared and visible image-based multispectral image stitching method to achieve all-weather, broad FOV scene perception. Specifically, based on two pairs of infrared and visible images, we employ the salient structural information from the infrared images and the textual details from the visible images to infer the correspondences within different modality-specific features. For this purpose, a multiscale progressive mechanism coupled with quadrature correlation is exploited to improve regression in different modalities. Exploiting the complementary properties, accurate and credible homography can be obtained by integrating the deformation parameters of the two modalities to compensate for the missing modality-specific information. A global-aware guided reconstruction module is established to generate an informative and broad scene, wherein the attentive features of different viewpoints are introduced to fuse the source images with a more seamless and comprehensive appearance. We construct a high-quality infrared and visible stitching dataset for evaluation, including real-world and synthetic sets. The qualitative and quantitative results demonstrate that the proposed method outperforms the intuitive cascaded fusion-stitching procedure, achieving more robust and credible panorama generation. Code and dataset are available at https://github.com/Jzy2017/MSGA.
0

Leveraging a self-adaptive mean teacher model for semi-supervised multi-exposure image fusion

Qianjun Huang et al.Jun 16, 2024
Deep learning-based methods have recently shown remarkable advancements in multi-exposure image fusion (MEF), demonstrating significant achievements in improving the fusion quality. Despite their success, the majority of reference images in MEF are artificially generated, inevitably introducing a portion of low-quality ones. Existing methods either utilize these mixed-quality reference images for supervised learning or heavily depend on source images for unsupervised learning, making the fusion results challenging to accurately reflect real-world illumination conditions. To overcome the impact of unreliable factors in references, we propose a self-adaptive mean teacher-based semi-supervised learning framework tailored for MEF, termed SAMT-MEF. Its self-adaptiveness is reflected from two perspectives. Firstly, we establish a self-adaptive set to retain the best-ever outputs from the teacher as pseudo labels, employing a well-crafted hybrid metric for its updates. Secondly, we employ contrastive learning to assist the self-adaptive set further in alleviating overfitting to inferior pseudo labels. Our proposed method, backed by abundant empirical evidence, outperforms state-of-the-art methods quantitatively and qualitatively on both reference and non-reference datasets. Furthermore, in some scenarios, the fusion results surpass the reference images, showcasing superior performance in practical applications. Source code are publicly available at https://github.com/hqj9994ever/SAMT-MEF.