Healthy Research Rewards
ResearchHub is incentivizing healthy research behavior. At this time, first authors of open access papers are eligible for rewards. Visit the publications tab to view your eligible publications.
Got it
CS
Chunfeng Song
Author with expertise in Deep Learning in Computer Vision and Image Recognition
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
5
(60% Open Access)
Cited by:
1,241
h-index:
18
/
i10-index:
30
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Mask-Guided Contrastive Attention Model for Person Re-identification

Chunfeng Song et al.Jun 1, 2018
Person Re-identification (ReID) is an important yet challenging task in computer vision. Due to the diverse background clutters, variations on viewpoints and body poses, it is far from solved. How to extract discriminative and robust features invariant to background clutters is the core problem. In this paper, we first introduce the binary segmentation masks to construct synthetic RGB-Mask pairs as inputs, then we design a mask-guided contrastive attention model (MGCAM) to learn features separately from the body and background regions. Moreover, we propose a novel region-level triplet loss to restrain the features learnt from different regions, i.e., pulling the features from the full image and body region close, whereas pushing the features from backgrounds away. We may be the first one to successfully introduce the binary mask into person ReID task and the first one to propose region-level contrastive learning. We evaluate the proposed method on three public datasets, including MARS, Market-1501 and CUHK03. Extensive experimental results show that the proposed method is effective and achieves the state-of-the-art results. Mask and code will be released upon request.
0

Box-Driven Class-Wise Region Masking and Filling Rate Guided Loss for Weakly Supervised Semantic Segmentation

Chunfeng Song et al.Jun 1, 2019
Semantic segmentation has achieved huge progress via adopting deep Fully Convolutional Networks (FCN). However, the performance of FCN based models severely rely on the amounts of pixel-level annotations which are expensive and time-consuming. To address this problem, it is a good choice to learn to segment with weak supervision from bounding boxes. How to make full use of the class-level and region-level supervisions from bounding boxes is the critical challenge for the weakly supervised learning task. In this paper, we first introduce a box-driven class-wise masking model (BCM) to remove irrelevant regions of each class. Moreover, based on the pixel-level segment proposal generated from the bounding box supervision, we could calculate the mean filling rates of each class to serve as an important prior cue, then we propose a filling rate guided adaptive loss (FR-Loss) to help the model ignore the wrongly labeled pixels in proposals. Unlike previous methods directly training models with the fixed individual segment proposals, our method can adjust the model learning with global statistical information. Thus it can help reduce the negative impacts from wrongly labeled proposals. We evaluate the proposed method on the challenging PASCAL VOC 2012 benchmark and compare with other methods. Extensive experimental results show that the proposed method is effective and achieves the state-of-the-art results.
0

Learning Integral Objects With Intra-Class Discriminator for Weakly-Supervised Semantic Segmentation

Junsong Fan et al.Jun 1, 2020
Image-level weakly-supervised semantic segmentation (WSSS) aims at learning semantic segmentation by adopting only image class labels. Existing approaches generally rely on class activation maps (CAM) to generate pseudo-masks and then train segmentation models. The main difficulty is that the CAM estimate only covers partial foreground objects. In this paper, we argue that the critical factor preventing to obtain the full object mask is the classification boundary mismatch problem in applying the CAM to WSSS. Because the CAM is optimized by the classification task, it focuses on the discrimination across different image-level classes. However, the WSSS requires to distinguish pixels sharing the same image-level class to separate them into the foreground and the background. To alleviate this contradiction, we propose an efficient end-to-end Intra-Class Discriminator (ICD) framework, which learns intra-class boundaries to help separate the foreground and the background within each image-level class. Without bells and whistles, our approach achieves the state-of-the-art performance of image label based WSSS, with mIoU 68.0% on the VOC 2012 semantic segmentation benchmark, demonstrating the effectiveness of the proposed approach.
0
0

Sec23IP recruits the Cohen syndrome factor VPS13B/COH1 to ER exit site-Golgi interface for tubular ERGIC formation

Yuanjiao Du et al.Feb 29, 2024
Abstract VPS13B/COH1 is the only known causative factor for Cohen syndrome, an early-onset autosomal recessive developmental disorder with intellectual inability, developmental delay, joint hypermobility, myopia and facial dysmorphism as common features, but the molecular basis of VPS13B/COH1 in pathogenesis is unknown. Here, we identify Sec23 interacting protein (Sec23IP) at ER exit site (ERES) as a VPS13B adaptor that recruits VPS13B to ERES-Golgi interfaces. VPS13B interacts directly with Sec23IP via the VPS13 adaptor binding domain (VAB), and the interaction promotes the association between ERES and the Golgi. Disease-associated missense mutations of VPS13B-VAB impair the interaction with Sec23IP. Knockout of VPS13B or Sec23IP blocks the formation of tubular ERGIC, an unconventional cargo carrier that expedites ER-to-Golgi transport. In addition, depletion of VPS13B or Sec23IP delays ER export of procollagen, suggesting a link between procollagen secretion and joint laxity in patients with Cohen disease. Together, our study reveals a crucial role of VPS13B-Sec23IP interaction at ERES-Golgi interface in the pathogenesis of Cohen syndrome.
0
Citation2
0
Save