HW
Hongyu Wang
Author with expertise in Multispectral and Hyperspectral Image Fusion
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
15
(20% Open Access)
Cited by:
2,166
h-index:
34
/
i10-index:
75
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Amulet: Aggregating Multi-level Convolutional Features for Salient Object Detection

Pingping Zhang et al.Oct 1, 2017
Fully convolutional neural networks (FCNs) have shown outstanding performance in many dense labeling problems. One key pillar of these successes is mining relevant information from features in convolutional layers. However, how to better aggregate multi-level convolutional feature maps for salient object detection is underexplored. In this work, we present Amulet, a generic aggregating multi-level convolutional feature framework for salient object detection. Our framework first integrates multi-level feature maps into multiple resolutions, which simultaneously incorporate coarse semantics and fine details. Then it adaptively learns to combine these feature maps at each resolution and predict saliency maps with the combined features. Finally, the predicted results are efficiently fused to generate the final saliency map. In addition, to achieve accurate boundary inference and semantic enhancement, edge-aware feature maps in low-level layers and the predicted results of low resolution features are recursively embedded into the learning framework. By aggregating multi-level convolutional features in this efficient and flexible manner, the proposed saliency model provides accurate salient object labeling. Comprehensive experiments demonstrate that our method performs favorably against state-of-the-art approaches in terms of near all compared evaluation metrics.
0
Citation754
0
Save
0

Learning Uncertain Convolutional Features for Accurate Saliency Detection

Pingping Zhang et al.Oct 1, 2017
Deep convolutional neural networks (CNNs) have delivered superior performance in many computer vision tasks. In this paper, we propose a novel deep fully convolutional network model for accurate salient object detection. The key contribution of this work is to learn deep uncertain convolutional features (UCF), which encourage the robustness and accuracy of saliency detection. We achieve this via introducing a reformulated dropout (R-dropout) after specific convolutional layers to construct an uncertain ensemble of internal feature units. In addition, we propose an effective hybrid upsampling method to reduce the checkerboard artifacts of deconvolution operators in our decoder network. The proposed methods can also be applied to other deep convolutional networks. Compared with existing saliency detection methods, the proposed UCF model is able to incorporate uncertainties for more accurate object boundary inference. Extensive experiments demonstrate that our proposed saliency model performs favorably against state-of-the-art approaches. The uncertain feature learning mechanism as well as the upsampling method can significantly improve performance on other pixel-wise vision tasks.
0
Citation477
0
Save
0

High-Resolution SAR Image Classification via Deep Convolutional Autoencoders

Jie Geng et al.Oct 1, 2015
Synthetic aperture radar (SAR) image classification is a hot topic in the interpretation of SAR images. However, the absence of effective feature representation and the presence of speckle noise in SAR images make classification difficult to handle. In order to overcome these problems, a deep convolutional autoencoder (DCAE) is proposed to extract features and conduct classification automatically. The deep network is composed of eight layers: a convolutional layer to extract texture features, a scale transformation layer to aggregate neighbor information, four layers based on sparse autoencoders to optimize features and classify, and last two layers for postprocessing. Compared with hand-crafted features, the DCAE network provides an automatic method to learn discriminative features from the image. A series of filters is designed as convolutional units to comprise the gray-level cooccurrence matrix and Gabor features together. Scale transformation is conducted to reduce the influence of the noise, which integrates the correlated neighbor pixels. Sparse autoencoders seek better representation of features to match the classifier, since training labels are added to fine-tune the parameters of the networks. Morphological smoothing removes the isolated points of the classification map. The whole network is designed ingeniously, and each part has a contribution to the classification accuracy. The experiments of TerraSAR-X image demonstrate that the DCAE network can extract efficient features and perform better classification result compared with some related algorithms.
0

Device-Free Wireless Localization and Activity Recognition: A Deep Learning Approach

Jie Wang et al.Dec 2, 2016
Device-free wireless localization and activity recognition (DFLAR) is a new technique, which could estimate the location and activity of a target by analyzing its shadowing effect on surrounding wireless links. This technique neither requires the target to be equipped with any device nor involves privacy concerns, which makes it an attractive and promising technique for many emerging smart applications. The key question of DFLAR is how to characterize the influence of the target on wireless signals. Existing work generally utilizes statistical features extracted from wireless signals, such as mean and variance in the time domain and energy as well as entropy in the frequency domain, to characterize the influence of the target. However, a feature suitable for distinguishing some activities or gestures may perform poorly when it is used to recognize other activities or gestures. Therefore, one has to manually design handcraft features for a specific application. Inspired by its excellent performance in extracting universal and discriminative features, in this paper, we propose a deep learning approach for realizing DFLAR. Specifically, we design a sparse autoencoder network to automatically learn discriminative features from the wireless signals and merge the learned features into a softmax-regression-based machine learning framework to realize location, activity, and gesture recognition simultaneously. Extensive experiments performed in a clutter indoor laboratory and an apartment with eight wireless nodes demonstrate that the DFLAR system using the learned features could achieve 0.85 or higher accuracy, which is better than the systems utilizing traditional handcraft features.
0

Spectral–Spatial Classification of Hyperspectral Image Based on Deep Auto-Encoder

Xiaorui Ma et al.Feb 11, 2016
Deep learning, which represents data by a hierarchical network, has proven to be efficient in computer vision. To investigate the effect of deep features in hyperspectral image (HSI) classification, this paper focuses on how to extract and utilize deep features in HSI classification framework. First, in order to extract spectral-spatial information, an improved deep network, spatial updated deep auto-encoder (SDAE), is proposed. SDAE, which is an improved deep auto-encoder (DAE), considers sample similarity by adding a regularization term in the energy function, and updates features by integrating contextual information. Second, in order to deal with the small training set using deep features, a collaborative representation-based classification is applied. Moreover, in order to suppress salt-and-pepper noise and smooth the result, we compute the residual of collaborative representation of all samples as a residual matrix, which can be effectively used in a graph-cut-based spatial regularization. The proposed method inherits the advantages of deep learning and has solutions to add spatial information of HSI in the learning network. Using collaborative representation-based classification with deep features makes the proposed classifier extremely robust under a small training set. Extensive experiments demonstrate that the proposed method provides encouraging results compared with some related techniques.
0

CSI-Based Device-Free Wireless Localization and Activity Recognition Using Radio Image Features

Qinhua Gao et al.Aug 9, 2017
Device-free wireless localization and activity recognition is an emerging technique, which could estimate the location and activity of a person without equipping him/her with any device. It deduces the state of a person by analyzing his/her influence on surrounding wireless signals. Therefore, how to characterize the influence of human behaviors is the key question. In this paper, we explore and exploit a radio image processing approach to better characterize the influence of human behaviors on Wi-Fi signals. Traditional methods deal with channel state information (CSI) measurements on each channel independently. However, CSI measurements on different channels are correlated, and thus lots of useful information involved with channel correlation may be lost. This motivates us to look on CSI measurements from multiple channels as a radio image and deal with it from the two-dimensional perspective. Specifically, we transform CSI measurements from multiple channels into a radio image, extract color and texture features from the radio image, adopt a deep learning network to learn optimized deep features from image features, and estimate the location and activity of a person using a machine learning approach. Benefits from the informative and discriminative deep image features and experimental results in two clutter laboratories confirm the excellent performance of the proposed system.
0

PLE-SLAM: A Visual-Inertial SLAM Based on Point-Line Features and Efficient IMU Initialization

Jiaming He et al.Jan 1, 2025
Camera and IMU are widely used in robotics to achieve accurate and robust pose estimation. However, this fusion relies heavily on sufficient visual feature observations and precise inertial state variables. This paper proposes PLE-SLAM, a real-time visual-inertial SLAM for complex environments, which introduces line features to point-based SLAM and propose an efficient IMU initialization method. Firstly, we use parallel computing methods to extract point-line features and compute descriptors to ensure real-time performance. Adjacent short-line segments are merged into long-line segments for more stable tracking, and isolated short-line segments are directly eliminated. Secondly, to overcome rapid rotation and low texture scenes, we estimate gyroscope bias by tightly coupling rotation pre-integration and 2D point-line observations without 3D point cloud and vision-only rotation estimation. Accelerometer bias and gravity direction are solved by an analytical method, which is more efficient than non-linear optimization. To improve the system's robustness in complex environments, an improved method of dynamic feature elimination and a solution for loop detection and loop frames pose estimation using CNN and GNN are integrated into the system. The experiment results on public datasets demonstrate that PLE-SLAM achieves more than 20%~50% improvement in localization performance than ORB-SLAM3 and outperforms other state-of-the-art visual-inertial SLAM systems in most environments.
Load More