GW
Guanqun Wang
Author with expertise in Autofocusing in Microscopy and Photography
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
7
(43% Open Access)
Cited by:
1
h-index:
10
/
i10-index:
10
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Well Logging Reconstruction Based on a Temporal Convolutional Network and Bidirectional Gated Recurrent Unit Network with Attention Mechanism Optimized by Improved Sand Cat Swarm Optimization

Guanqun Wang et al.Jun 3, 2024
Geophysical logging plays a very important role in reservoir evaluation. In the actual production process, some logging data are often missing due to well wall collapse and instrument failure. Therefore, this paper proposes a logging reconstruction method based on improved sand cat swarm optimization (ISCSO) and a temporal convolutional network (TCN) and bidirectional gated recurrent unit network with attention mechanism (BiGRU-AM). The ISCSO-TCN-BiGRU-AM can process both past and future states efficiently, thereby extracting valuable deterioration information from logging data. Firstly, the sand cat swarm optimization (SCSO) improved by the variable spiral strategy and sparrow warning mechanism is introduced. Secondly, the ISCSO’s performance is evaluated using the CEC–2022 functions and the Wilcoxon test, and the findings demonstrate that the ISCSO outperforms the rival algorithms. Finally, the logging reconstruction method based on the ISCSO-TCN-BiGRU-AM is obtained. The results are compared with the competing models, including the back propagation neural network (BPNN), GRU, and BiGRU-AM. The results show that the ISCSO-TCN-BiGRU-AM has the best performance, which verifies its high accuracy and feasibility for the missing logging reconstruction.
0

U-Shaped CNN-ViT Siamese Network With Learnable Mask Guidance for Remote Sensing Building Change Detection

Yongjing Cui et al.Jan 1, 2024
Building Change Detection (BCD) aims to identify new or disappeared buildings from bi-temporal images. However, the varied scales and appearances of buildings, along with the challenge of pseudo-change interference from complex backgrounds, make it difficult to accurately extract complete changes. To address these challenges in BCD, a U-shaped hybrid Siamese network combining a convolutional neural network and a vision Transformer (CNN-ViT) with learnable mask guidance, called U-Conformer, is designed. Firstly, a new hybrid architecture of U-Conformer is proposed. The architecture integrates the strengths of CNNs and ViTs to establish a robust, multi-scale heterogeneous representation that aids in detecting buildings of various sizes. Secondly, a Learnable Mask Guidance Module (LMGM) is specifically designed for U-Conformer, focusing the multi-scale heterogeneous representation on extracting relevant scale changes while progressively suppressing pseudo-changes. Furthermore, for the U-Conformer architecture, a mask information joint class-balanced loss function that combines the Binary Cross-Entropy (BCE) loss function and the Dice loss function is devised, significantly mitigating the issue of class imbalance. Experimental results on three publicly available change detection datasets, LEVIR-CD, WHU-CD, and GZ-CD, demonstrate that U-Conformer surpasses previous methods, achieving F1 scores of 91.5%, 94.6%, and 86.7%, as well as IoU scores of 84.3%, 89.7%, and 76.5% on the LEVIR-CD, WHU-CD, and GZ-CD datasets, respectively.
0

Regression-Guided Refocusing Learning with Feature Alignment for Remote Sensing Tiny Object Detection

Ling Ge et al.Jan 1, 2024
Tiny object detection is a formidable challenge in remote sensing intelligent interpretation. Tiny objects are usually fuzzy, densely distributed and highly sensitive to positioning errors, which leads to the mainstream detector usually achieving suboptimal detection performance when facing tiny objects. To address the mismatch of mainstream detector architectures and model optimization strategies in the context of tiny object detection, this paper presents an efficient and interpretable algorithm for tiny object detection, termed the Cross-Attention based Feature Fusion Enhanced tiny object detection Network (CAF 2 ENet). First, the cross-attention mechanism is introduced to refine the upsampling results of deep features. This refinement improves the precision of multi-scale feature fusion. Second, a training strategy named regression-based refocusing learning is introduced. Deviating from the conventional optimization strategy, our method guides the optimizer to prioritize higher-quality detection boxes by adjusting sample weights. This adjustment significantly amplifies the detector's potential to achieve superior detection results. Finally, the object composite confidence score is employed for the interpretable filtering of detection boxes. Extensive experiments on Tiny Object Detection in Aerial Images (AI-TOD) and object Detection in Optical Remote sensing images (DIOR) datasets are carried out, and comparison indicate that the proposed CAF 2 ENet can perform the remarkable performance compared to other state-of-the-art (SOTA) tiny object detection detectors, as it can reach 63.7% Average Precision ( AP 50 ) on AI-TOD and 75.4% AP 50 on DIOR, achieve SOTA performance.