XG
Xin Geng
Author with expertise in Multi-label Text Classification in Machine Learning
Achievements
Cited Author
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
13
(54% Open Access)
Cited by:
1,124
h-index:
37
/
i10-index:
69
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Deep Label Distribution Learning With Label Ambiguity

Bin-Bin Gao et al.Mar 30, 2017
Convolutional neural networks (ConvNets) have achieved excellent recognition performance in various visual recognition tasks. A large labeled training set is one of the most important factors for its success. However, it is difficult to collect sufficient training images with precise labels in some domains, such as apparent age estimation, head pose estimation, multilabel classification, and semantic segmentation. Fortunately, there is ambiguous information among labels, which makes these tasks different from traditional classification. Based on this observation, we convert the label of each image into a discrete label distribution, and learn the label distribution by minimizing a Kullback-Leibler divergence between the predicted and ground-truth label distributions using deep ConvNets. The proposed deep label distribution learning (DLDL) method effectively utilizes the label ambiguity in both feature learning and classifier learning, which help prevent the network from overfitting even when the training set is small. Experimental results show that the proposed approach produces significantly better results than the state-of-the-art methods for age estimation and head pose estimation. At the same time, it also improves recognition performance for multi-label classification and semantic segmentation tasks.
0
Citation240
0
Save
0

Inaccurate Label Distribution Learning

Zhiqiang Kou et al.Jan 1, 2024
Label distribution learning (LDL) trains a model to predict the relevance of a set of labels (called label distribution (LD)) to an instance. The previous LDL methods all assumed the LDs of the training instances are accurate. However, annotating highly accurate LDs for training instances is time-consuming and extremely expensive, and in reality the collected LDs are often inaccurate. This paper first investigates the inaccurate LDL (ILDL) problem—learn an LDL method from the inaccurate LDs. We assume that the inaccurate LD blends the ground-truth LD and sparse noise. Consequently, the ILDL problem becomes an inverse problem, whose objective is to recover the ground-truth LD and noise from the inaccurate LD. We hypothesize that the ground-truth LD exhibits low rank due to label correlations. Besides, we leverage the local geometric structure of instances (represented as graph) to further recover the ground-truth LD. Finally, the proposed method is formulated as a graph-regularized low-rank and sparse decomposition problem. Next, we induce an LDL predictive method by learning from recovered LD. Extensive experiments conducted on multiple datasets demonstrate the better performance of our method, especially for ILDL problem.
0

A SAM-guided Two-stream Lightweight Model for Anomaly Detection

Chenghao Li et al.Nov 29, 2024
In industrial anomaly detection, model efficiency and mobile-friendliness become the primary concerns in real-world applications. Simultaneously, the impressive generalization capabilities of Segment Anything (SAM) have garnered broad academic attention, making it an ideal choice for localizing unseen anomalies and diverse real-world patterns. In this paper, considering these two critical factors, we propose a SAM-guided Two-stream Lightweight Model for unsupervised anomaly detection (STLM) that not only aligns with the two practical application requirements but also harnesses the robust generalization capabilities of SAM. We employ two lightweight image encoders, i.e. , our two-stream lightweight module, guided by SAM's knowledge. To be specific, one stream is trained to generate discriminative and general feature representations in both normal and anomalous regions, while the other stream reconstructs the same images without anomalies, which effectively enhances the differentiation of two-stream representations when facing anomalous regions. Furthermore, we employ a shared mask decoder and a feature aggregation module to generate anomaly maps. Our experiments conducted on MVTec AD benchmark show that STLM, with about 16M parameters and achieving an inference time in 20ms, competes effectively with state-of-the-art methods in terms of performance, 98.26% on pixel-level AUC and 94.92% on PRO. We further experiment on more difficult datasets, e.g. , VisA and DAGM, to demonstrate the effectiveness and generalizability of STLM. Codes are available online at https://github.com/Qi5Lei/STLM .
0

Exploring Learngene via Stage-wise Weight Sharing for Initializing Variable-sized Models

Shiyu Xia et al.Aug 1, 2024
In practice, we usually need to build variable-sized models adapting for diverse resource constraints in different application scenarios, where weight initialization is an important step prior to training. The Learngene framework, introduced recently, firstly learns one compact part termed as learngene from a large well-trained model, after which learngene is expanded to initialize variable-sized models. In this paper, we start from analysing the importance of guidance for the expansion of well-trained learngene layers, inspiring the design of a simple but highly effective Learngene approach termed SWS (Stage-wise Weight Sharing), where both learngene layers and their learning process critically contribute to providing knowledge and guidance for initializing models at varying scales. Specifically, to learn learngene layers, we build an auxiliary model comprising multiple stages where the layer weights in each stage are shared, after which we train it through distillation. Subsequently, we expand these learngene layers containing stage information at their corresponding stage to initialize models of variable depths. Extensive experiments on ImageNet-1K demonstrate that SWS achieves consistent better performance compared to many models trained from scratch, while reducing around 6.6× total training costs. In some cases, SWS performs better only after 1 epoch tuning. When initializing variable-sized models adapting for different resource constraints, SWS achieves better results while reducing around 20× parameters stored to initialize these models and around 10× pre-training costs, in contrast to the pre-training and fine-tuning approach.
0

Variational Label Enhancement for Instance-Dependent Partial Label Learning

Ning Xu et al.Jan 1, 2024
Partial label learning (PLL) is a form of weakly supervised learning, where each training example is linked to a set of candidate labels, among which only one label is correct. Most existing PLL approaches assume that the incorrect labels in each training example are randomly picked as the candidate labels. However, in practice, this assumption may not hold true, as the candidate labels are often instance-dependent. In this paper, we address the instance-dependent PLL problem and assume that each example is associated with a latent label distribution where the incorrect label with a high degree is more likely to be annotated as a candidate label. Motivated by this consideration, we propose two methods VALEN and MILEN, which train the predictive model via utilizing the latent label distributions recovered by the label enhancement process. Specifically, VALEN recovers the latent label distributions via inferring the variational posterior density parameterized by an inference model with the deduced evidence lower bound. MILEN recovers the latent label distribution by adopting the variational approximation to bound the mutual information among the latent label distribution, observed labels and augmented instances. Experiments on benchmark and real-world datasets validate the effectiveness of the proposed methods.
0

Volumetric Stress Managements on Silicon Anode of Lithium‐Ion Batteries by a Self‐Adaptable Binder

Shuai Wu et al.Dec 6, 2024
The intrinsic volume changes (about 300%) of Si anode during the lithiation/delithiation leads to the serious degradation of battery performance despite of theoretical capacity of 3579 mAh g −1 of Si. Herein, a three‐dimensional (3D) conductive polymer binder with adjustable crosslinking density has been designed by employing citric acid (CA) as a crosslinker between the carboxymethyl cellulose (CMC) and the poly(3,4‐ethylenedioxythiophene) poly‐(styrene‐4‐sulfonate) (PEDOT:PSS) to stabilize Si anode. By adjusting the crosslinking density, the binder can achieve a balance between rigidity and flexibility to adapt the volume expansion upon lithiation and reversible volume recovery after delithiation of Si. Therefore, Si/CMC‐CA‐PEDOT:PSS (Si/CCP) electrode demonstrates an excellent performance with high capacities of 2792.3 mAh g −1 at 0.5 A g −1 and a high area capacity above 2.6 mAh cm −2 under Si loading of 1.38 mg cm −2 . The full cell Si/CCP paired with Li(Ni 0.8 Co 0.1 Mn 0.1 )O 2 cathode discharges a capacity of 199.0 mAh g −1 with 84.3% ICE at 0.1 C and the capacity retention of 95.6% after 100 cycles. This work validates the effectiveness of 3D polymer binder and provides new insights to boost the performance of Si anode.
Load More