ZY
Zhenyu Yin
Author with expertise in Rough Sets Theory and Applications
Achievements
Open Access Advocate
Cited Author
Key Stats
Upvotes received:
0
Publications:
4
(50% Open Access)
Cited by:
11
h-index:
2
/
i10-index:
0
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
2

An Improved Three-Way K-Means Algorithm by Optimizing Cluster Centers

Qihang Guo et al.Sep 2, 2022
Most of data set can be represented in an asymmetric matrix. How to mine the uncertain information from the matrix is the primary task of data processing. As a typical unsupervised learning method, three-way k-means clustering algorithm uses core region and fringe region to represent clusters, which can effectively deal with the problem of inaccurate decision-making caused by inaccurate information or insufficient data. However, same with k-means algorithm, three-way k-means also has the problems that the clustering results are dependent on the random selection of clustering centers and easy to fall into the problem of local optimization. In order to solve this problem, this paper presents an improved three-way k-means algorithm by integrating ant colony algorithm and three-way k-means. Through using the random probability selection strategy and the positive and negative feedback mechanism of pheromone in ant colony algorithm, the sensitivity of the three k-means clustering algorithms to the initial clustering center is optimized through continuous updating iterations, so as to avoid the clustering results easily falling into local optimization. Dynamically adjust the weights of the core domain and the boundary domain to avoid the influence of artificially set parameters on the clustering results. The experiments on UCI data sets show that the proposed algorithm can improve the performances of three-way k-means clustering results and is effective in revealing cluster structures.
0

Parallel Selector for Feature Reduction

Z. Yin et al.Apr 27, 2023
In the field of rough set, feature reduction is a hot topic. Up to now, to better guide the explorations of this topic, various devices regarding feature reduction have been developed. Nevertheless, some challenges regarding these devices should not be ignored: (1) the viewpoint provided by a fixed measure is underabundant; (2) the final reduct based on single constraint is sometimes powerless to data perturbation; (3) the efficiency in deriving the final reduct is inferior. In this study, to improve the effectiveness and efficiency of feature reduction algorithms, a novel framework named parallel selector for feature reduction is reported. Firstly, the granularity of raw features is quantitatively characterized. Secondly, based on these granularity values, the raw features are sorted. Thirdly, the reordered features are evaluated again. Finally, following these two evaluations, the reordered features are divided into groups, and the features satisfying given constraints are parallel selected. Our framework can not only guide a relatively stable feature sequencing if data perturbation occurs but can also reduce time consumption for feature reduction. The experimental results over 25 UCI data sets with four different ratios of noisy labels demonstrated the superiority of our framework through a comparison with eight state-of-the-art algorithms.
0
Citation2
0
Save
0

Ensemble Selector Mixed with Pareto Optimality to Feature Reduction

Z. Yin et al.Jan 1, 2023
Among various tasks of feature reduction, how to search qualified features and then construct the corresponding reduct which satisfies a given constraint is a hot topic. Constraint is the pre-defined condition in feature reduction, it rules two crucial aspects: 1) when the process of searching can be terminated to construct reduct; 2) whether a feature/set of features should be added into reduct pool or not. Obviously, such a task of feature reduction is constraint-dependent. However, some limitations may naturally emerge: 1) constraint-independent features are ignored; 2) fixed constraint hinders the diverse evaluations of features; 3) selected features based on single constraint are powerless to data perturbation. Therefore, an Ensembler Mixed with Pareto Optimality (EmPo) is developed in this study. Firstly, the principle of Restricted Pareto Optimality is proposed to identify constraint-independent features before performing constraint related searching, which indicates a two-stages strategy to feature reduction. Naturally, diverse evaluations of features are achieved in such a process. Secondly, a data perturbation w.r.t. either sample or feature aspect is employed to obtain multiple reductions of features. The objective is to further improve the stability of the classification results based on those multiple reducts. It should also be emphasized that EmPo is a general framework, and most existing approaches to feature reduction can be embedded into it to further improve their performances. Finally, the effectiveness of our EmPo is validated over 20 datasets within 4 different ratios of noisy label.