DX
Dan Xu
Author with expertise in Image Enhancement Techniques
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
14
(21% Open Access)
Cited by:
5
h-index:
22
/
i10-index:
74
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Oral oxytocin blurs sex differences in amygdala responses to emotional scenes

Chunmei Lan et al.Jun 1, 2024
The sex differences were co-shaped by innate biological differences and social environment, and were frequently observed in human emotional neural responses. Oral administration of oxytocin, as an alternative and noninvasive intake method, has been demonstrated to produce sex-dependent effects on emotional face processing. However, it is unclear whether oral oxytocin produces similar sex-dependent effects on processing continuous emotional scenes. Current randomized, double-blind, placebo-controlled neuro-psychopharmacological fMRI experiment was conducted in 147 healthy participants (oxytocin=74, male/female=37/37; placebo=73, male/female=36/37) to examine the oral oxytocin effect on plasma oxytocin concentrations and neural response to emotional scenes in both sexes. At the neuroendocrine level, females showed lower endogenous oxytocin concentrations than males, but oral oxytocin equally increased the oxytocin concentrations in both sexes. Regarding neural activity, emotional scenes evoked opposite valence-independent effects on right amygdala activation (females>males) and its functional connectivity with the insula (males>females) in two sexes in the placebo group. This sex difference were either attenuated (amygdala response) or even completely eliminated (amygdala-insula functional connectivity) in the oxytocin group. The multivariate pattern analysis confirmed these findings by developing an accurate sex-predictive neural pattern that including the amygdala and the insula under the placebo but not oxytocin condition. Present study suggests a pronounced sex-difference in neural responses to emotional scenes which is abolished by oral oxytocin, with it having opposite modulatory effects in two sexes. Possibly this may reflect oral OXT enhancing emotional regulation to continuous emotional stimuli in both sexes by facilitating appropriate changes in sex-specific amygdala-insula circuitry.
0

Fidelity based visual compensation and salient information rectification for infrared and visible image fusion

Yueying Luo et al.Sep 1, 2024
The fusion technology, combining infrared and visible modes, has the potential to enhance the semantic content of backgrounds, thereby improving scene interpretability. However, most existing image fusion algorithms primarily concentrate on the fusion process, often neglecting the importance of preprocessing the source images to enhance their visual fidelity. Additionally, these algorithms frequently overlook the distinct characteristics of infrared and visible modes, leading to suboptimal weight allocations that do not correspond with human perception. To tackle these issues, this paper proposes a fusion algorithm that emphasizes visual fidelity and the rectification of salient information. More specifically, we improve fusion algorithms by designing an adaptive enhancement method based on Taylor approximation and visual compensation, which proves particularly effective in complex environments. Our proposed multi-scale decomposition approach extracts salient information from the transmission map, thereby enriching fusion results with finer details to accentuate target features. Drawing inspiration from the distinctive attributes of infrared and visible image modes, we devise a fusion weight calculation method grounded in similarity measurements to effectively convey significant information from the source images. To validate the effectiveness of our proposed method, we conducted validation experiments using publicly available datasets. Our experimental findings exhibit a prominent advantage over fifteen state-of-the-art fusion algorithms in both subjective and objective assessments. Our code is publicly available at: https://github.com/VCMHE/FVC_SIR.
0

PSANet: Automatic colourisation using position‐spatial attention for natural images

P. Zhu et al.Jun 16, 2024
Abstract Due to the richness of natural image semantics, natural image colourisation is a challenging problem. Existing methods often suffer from semantic confusion due to insufficient semantic understanding, resulting in unreasonable colour assignments, especially at the edges of objects. This phenomenon is referred to as colour bleeding. The authors have found that using the self‐attention mechanism benefits the model's understanding and recognition of object semantics. However, this leads to another problem in colourisation, namely dull colour. With this in mind, a Position‐Spatial Attention Network(PSANet) is proposed to address the colour bleeding and the dull colour. Firstly, a novel new attention module called position‐spatial attention module (PSAM) is introduced. Through the proposed PSAM module, the model enhances the semantic understanding of images while solving the dull colour problem caused by self‐attention. Then, in order to further prevent colour bleeding on object boundaries, a gradient‐aware loss is proposed. Lastly, the colour bleeding phenomenon is further improved by the combined effect of gradient‐aware loss and edge‐aware loss. Experimental results show that this method can reduce colour bleeding largely while maintaining good perceptual quality.
0

SFNet: A Scaling-down Fusion Network for Infrared and Visible Images with Texture Attention

Y. Li et al.Mar 22, 2024
The goal of infrared and visible image fusion is to generate a fused image that possesses the prominent attributes of infrared image and the rich textures of visible image. Current deep learning-based methods typically involve three main steps: feature extraction, feature fusion, and reconstruction. Extracting multi-scale features during the feature extraction stage is beneficial for fully utilizing deep features. Shallow image features exhibit higher resolution and contain more textures, while deep image features have lower resolution but stronger semantic information after more pooling and convolution. Existing methods use the same network to process features of different scales, while ignoring their differences. Moreover, they lack carefully designed texture preservation modules, leading to insufficient preservation of texture in the fused images. To overcome these issues, we propose a novel end-to-end fusion network for infrared and visible images where we develop a scaling-down network and texture attention. Based on the characteristics of features at different scales, we design a scaling-down fusion network that use deeper and more complex network to process shallow features, while using more streamlined network to process deep features. In order to better preserve image textures, we design texture attention in a relatively gentle way that focus on feature channels have rich textures to achieve the goal. We conducted experiments on publicly available datasets, and the results demonstrate that our method surpasses eleven state-of-the-art methods in terms of fusion performance. This conclusion has been verified through both subjective evaluation and objective evaluation.
Load More