XL
Xuejing Li
Author with expertise in Periodontal Diseases and Oral Microbiome
Achievements
Open Access Advocate
Key Stats
Upvotes received:
0
Publications:
4
(50% Open Access)
Cited by:
0
h-index:
7
/
i10-index:
3
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Contrastive Unsupervised Representation Learning With Optimize-Selected Training Samples

Yujun Cheng et al.Jan 1, 2024
Contrastive unsupervised representation learning (CURL) is a technique that seeks to learn feature sets from unlabeled data. It has found widespread and successful application in unsupervised feature learning, with the design of positive and negative pairs serving as the type of data samples. While CURL has seen empirical successes in recent years, there is still room for improvement in terms of the pair data generation process. This includes tasks such as combining and re-filtering samples, or implementing transformations among positive/negative pairs. We refer to this as the sample selection process. In this article, we introduce an optimized pair-data sample selection method for CURL. This method efficiently ensures that the two types of sampled data (similar pair and dissimilar pair) do not belong to the same class. We provide a theoretical analysis to demonstrate why our proposed method enhances learning performance by analyzing its error probability. Furthermore, we extend our proof into PAC-Bayes generalization to illustrate how our method tightens the bounds provided in previous literature. Our numerical experiments on text/image datasets show that our method achieves competitive accuracy with good generalization bounds.
0

Characterization and Genomic Analyses of dsDNA Vibriophage vB_VpaM_XM1, Representing a New Viral Family

Zuyun Wei et al.Sep 21, 2024
A novel vibriophage vB_VpaM_XM1 (XM1) was described in the present study. Morphological analysis revealed that phage XM1 had Myovirus morphology, with an oblate icosahedral head and a long contractile tail. The genome size of XM1 is 46,056 bp, with a G + C content of 42.51%, encoding 69 open reading frames (ORFs). Moreover, XM1 showed a narrow host range, only lysing Vibrio xuii LMG 21346 (T) JL2919, Vibrio parahaemolyticus 1.1997, and V. parahaemolyticus MCCC 1H00029 among the tested bacteria. One-step growth curves showed that XM1 has a 20-min latent period and a burst size of 398 plaque-forming units (PFU)/cell. In addition, XM1 exhibited broad pH, thermal, and salinity stability, as well as strong lytic activity, even at a multiplicity of infection (MOI) of 0.001. Multiple genome comparisons and phylogenetic analyses showed that phage XM1 is grouped in a clade with three other phages, including Vibrio phages Rostov 7, X29, and phi 2, and is distinct from all known viral families that have ratified by the standard genomic analysis of the International Committee on Taxonomy of Viruses (ICTV). Therefore, the above four phages might represent a new viral family, tentatively named Weiviridae. The broad physiological adaptability of phage XM1 and its high lytic activity and host specificity indicated that this novel phage is a good candidate for being used as a therapeutic bioagent against infections caused by certain V. parahaemolyticus strains.
0

ProtoRectifier: A Prototype Rectification Framework for Efficient Cross-Domain Text Classification with Limited Labeled Samples

Shiyao Zhao et al.May 28, 2024
During the past few years, with the advent of large-scale pre-trained language models (PLMs), there has been a significant advancement in cross-domain text classification with limited labeled samples. However, most existing approaches still face the problem of excessive computation overhead. While some non-pretrained language models can reduce the computation overhead, the performance could sharply drop off. To resolve few-shot learning problems on resource-limited devices with satisfactory performance, we propose a prototype rectification framework, ProtoRectifier, based on pre-trained model distillation and episodic meta-learning strategy. Specifically, a representation refactor based on DistilBERT is developed to mine text semantics. Meanwhile, a novel prototype rectification approach (i.e., Mean Shift Rectification) is put forward by making full use of the pseudo labeled query samples, so that the prototype of each category can be updated during the meta-training phase without introducing additional time overhead. Experiments on multiple real-world datasets demonstrate that ProtoRectifier outperforms the state-of-the-art baselines, not only achieving high cross-domain classification accuracy but also reducing the computation overhead significantly.