SH
Shih-Chia Huang
Author with expertise in Image Enhancement Techniques
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
7
(29% Open Access)
Cited by:
1,362
h-index:
31
/
i10-index:
63
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

DesnowNet: Context-Aware Deep Network for Snow Removal

Yun-Fu Liu et al.Feb 14, 2018
Existing learning-based atmospheric particle-removal approaches such as those used for rainy and hazy images are designed with strong assumptions regarding spatial frequency, trajectory, and translucency. However, the removal of snow particles is more complicated because they possess additional attributes of particle size and shape, and these attributes may vary within a single image. Currently, hand-crafted features are still the mainstream for snow removal, making significant generalization difficult to achieve. In response, we have designed a multistage network named DesnowNet to in turn deal with the removal of translucent and opaque snow particles. We also differentiate snow attributes of translucency and chromatic aberration for accurate estimation. Moreover, our approach individually estimates residual complements of the snow-free images to recover details obscured by opaque snow. Additionally, a multi-scale design is utilized throughout the entire network to model the diversity of snow. As demonstrated in the qualitative and quantitative experiments, our approach outperforms state-of-the-art learning-based atmospheric phenomena removal methods and one semantic segmentation baseline on the proposed Snow100K dataset. The results indicate our network would benefit applications involving computer vision and graphics.
0
Paper
Citation208
0
Save
0

Visibility Restoration of Single Hazy Images Captured in Real-World Weather Conditions

Shih-Chia Huang et al.Apr 16, 2014
The visibility of outdoor images captured in inclement weather is often degraded due to the presence of haze, fog, sandstorms, and so on. Poor visibility caused by atmospheric phenomena in turn causes failure in computer vision applications, such as outdoor object recognition systems, obstacle detection systems, video surveillance systems, and intelligent transportation systems. In order to solve this problem, visibility restoration (VR) techniques have been developed and play an important role in many computer vision applications that operate in various weather conditions. However, removing haze from a single image with a complex structure and color distortion is a difficult task for VR techniques. This paper proposes a novel VR method that uses a combination of three major modules: 1) a depth estimation (DE) module; 2) a color analysis (CA) module; and 3) a VR module. The proposed DE module takes advantage of the median filter technique and adopts our adaptive gamma correction technique. By doing so, halo effects can be avoided in images with complex structures, and effective transmission map estimation can be achieved. The proposed CA module is based on the gray world assumption and analyzes the color characteristics of the input hazy image. Subsequently, the VR module uses the adjusted transmission map and the color-correlated information to repair the color distortion in variable scenes captured during inclement weather conditions. The experimental results demonstrate that our proposed method provides superior haze removal in comparison with the previous state-of-the-art method through qualitative and quantitative evaluations of different scenes captured during various weather conditions.
0

Amalgamating Knowledge for Object Detection in Rainy Weather Conditions

Trung-Hieu Le et al.Jan 20, 2025
In recent years, object detection has significantly advanced by using deep learning, especially convolutional neural networks. Most of the existing methods have focused on detecting objects under favorable weather conditions and achieved impressive results. However, object detection in the presence of rain remains a crucial challenge owing to the visibility limitation. In this paper, we introduce an Amalgamating Knowledge Network (AK-Net) to deal with the problem of detecting objects hampered by rain. The proposed AK-Net obtains performance improvement by associating object detection with visibility enhancement, and it is composed of five subnetworks: rain streak removal (RSR) subnetwork, raindrop removal (RDR) subnetwork, foggy rain removal (FRR) subnetwork, feature transmission (FT) subnetwork, and object detection (OD) subnetwork. Our approach is flexible; it can adopt different object detection models to construct the OD subnetwork for the final inference of objects. The RSR, RDR, and FRR subnetworks are responsible for producing clean features from rain streak, raindrop, and foggy rain images, respectively, and offer them to the OD subnetwork through the FT subnetwork for efficient object prediction. Experimental results indicate that the mean average precision (mAP) achieved by our proposed AK-Net was up to 19.58 \(\%\) and 26.91 \(\%\) higher than those produced using competitive methods on published iRain and RID datasets, respectively, while preserving the fast-running time of the baseline detector.
0

Multilevel Knowledge Transmission for Object Detection in Rainy Night Weather Conditions

Trung-Hieu Le et al.May 29, 2024
In recent years, deep convolutional neural networks (CNNs) have been widely applied and have gained considerable success in object detection (OD). However, most of the CNN-based object detectors have been developed to operate under favorable weather conditions, limiting their ability to accurately detect objects in rainy nighttime (RNT) scenes, thereby resulting in low performance. In this work, we introduce a multilevel knowledge transmission network (MKT-Net) to overcome the challenges of detecting objects with the interference of rain and night. Our proposed model accomplishes this objective by collaborating OD with rain removal (RR) and low-illumination enhancement (LE) tasks. Specifically, the MKT-Net is composed of three main subnetworks that share some shallow layers with each other: an OD subnetwork for performing object classification and localization, an RR subnetwork, and an LE subnetwork for generating clear features. To aggregate and transmit multiscale features generated by the RR and LE subnetworks to the OD subnetwork for boosting detection accuracy, we introduce two feature transmission modules with identical architectures. Extensive evaluation on various datasets has demonstrated the effectiveness of our proposed model, which outperformed competing methods by up to 25.43% and 15.26% in mean average precision on a collected RNT dataset and the published rain in driving dataset, respectively, while maintaining high detection speed.