HW
Hao Wu
Author with expertise in Image Feature Retrieval and Recognition Techniques
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
5
(40% Open Access)
Cited by:
323
h-index:
14
/
i10-index:
24
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

RN-YOLO: A Small Target Detection Model for Aerial Remote-Sensing Images

Eric Wang et al.Jun 18, 2024
Accurately detecting targets in remote-sensing images is crucial for the military, urban planning, and resource exploration. There are some challenges in extracting detailed features from remote-sensing images, such as complex backgrounds, large-scale variations, and numerous small targets. This paper proposes a remote-sensing target detection model called RN-YOLO (YOLO with RepGhost and NAM), which integrates RepGhost and a normalization-based attention module (NAM) based on YOLOv8. Firstly, NAM is added to the feature extraction network to enhance the capture capabilities for small targets by recalibrating receptive fields and strengthening information flow. Secondly, an efficient RepGhost_C2f structure is employed in the feature fusion network to replace the C2f module, effectively reducing the parameters. Lastly, the WIoU (Wise Intersection over Union) loss function is adopted to mitigate issues such as significant variations in target sizes and difficulty locating small targets, effectively improving the localization accuracy of small targets. The experimental results demonstrate that compared to the YOLOv8s model, the RN-YOLO model reduces the parameter count by 13.9%. Moreover, on the DOTAv1.5, TGRS-HRRSD, and RSOD datasets, the detection accuracy (mAP@.5:.95) of the RN-YOLO model improves by 3.6%, 1.2%, and 2%, respectively, compared to the YOLOv8s model, showcasing its outstanding performance and enhanced capability in detecting small targets.
0

PSANet: Automatic colourisation using position‐spatial attention for natural images

P. Zhu et al.Jun 16, 2024
Abstract Due to the richness of natural image semantics, natural image colourisation is a challenging problem. Existing methods often suffer from semantic confusion due to insufficient semantic understanding, resulting in unreasonable colour assignments, especially at the edges of objects. This phenomenon is referred to as colour bleeding. The authors have found that using the self‐attention mechanism benefits the model's understanding and recognition of object semantics. However, this leads to another problem in colourisation, namely dull colour. With this in mind, a Position‐Spatial Attention Network(PSANet) is proposed to address the colour bleeding and the dull colour. Firstly, a novel new attention module called position‐spatial attention module (PSAM) is introduced. Through the proposed PSAM module, the model enhances the semantic understanding of images while solving the dull colour problem caused by self‐attention. Then, in order to further prevent colour bleeding on object boundaries, a gradient‐aware loss is proposed. Lastly, the colour bleeding phenomenon is further improved by the combined effect of gradient‐aware loss and edge‐aware loss. Experimental results show that this method can reduce colour bleeding largely while maintaining good perceptual quality.