JC
Jiujun Cheng
Author with expertise in Swarm Intelligence Optimization Algorithms
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
5
(20% Open Access)
Cited by:
1,045
h-index:
33
/
i10-index:
51
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Dendritic Neuron Model With Effective Learning Algorithms for Classification, Approximation, and Prediction

Shangce Gao et al.Jul 10, 2018
An artificial neural network (ANN) that mimics the information processing mechanisms and procedures of neurons in human brains has achieved a great success in many fields, e.g., classification, prediction, and control. However, traditional ANNs suffer from many problems, such as the hard understanding problem, the slow and difficult training problems, and the difficulty to scale them up. These problems motivate us to develop a new dendritic neuron model (DNM) by considering the nonlinearity of synapses, not only for a better understanding of a biological neuronal system, but also for providing a more useful method for solving practical problems. To achieve its better performance for solving problems, six learning algorithms including biogeography-based optimization, particle swarm optimization, genetic algorithm, ant colony optimization, evolutionary strategy, and population-based incremental learning are for the first time used to train it. The best combination of its user-defined parameters has been systemically investigated by using the Taguchi's experimental design method. The experiments on 14 different problems involving classification, approximation, and prediction are conducted by using a multilayer perceptron and the proposed DNM. The results suggest that the proposed learning algorithms are effective and promising for training DNM and thus make DNM more powerful in solving classification, approximation, and prediction problems.
0

Chaotic Local Search-Based Differential Evolution Algorithms for Optimization

Shangce Gao et al.Dec 24, 2019
JADE is a differential evolution (DE) algorithm and has been shown to be very competitive in comparison with other evolutionary optimization algorithms. However, it suffers from the premature convergence problem and is easily trapped into local optima. This article presents a novel JADE variant by incorporating chaotic local search (CLS) mechanisms into JADE to alleviate this problem. Taking advantages of the ergodicity and nonrepetitious nature of chaos, it can diversify the population and thus has a chance to explore a huge search space. Because of the inherent local exploitation ability, its embedded CLS can exploit a small region to refine solutions obtained by JADE. Hence, it can well balance the exploration and exploitation in a search process and further improve its performance. Four kinds of its CLS incorporation schemes are studied. Multiple chaotic maps are individually, randomly, parallelly, and memory-selectively incorporated into CLS. Experimental and statistical analyses are performed on a set of 53 benchmark functions and four real-world optimization problems. Results show that it has a superior performance in comparison with JADE and some other state-of-the-art optimization algorithms.
0

Information gain-based multi-objective evolutionary algorithm for feature selection

Baohang Zhang et al.Jun 7, 2024
Feature selection (FS) has garnered significant attention because of its pivotal role in enhancing the efficiency and effectiveness of various machine learning and data mining algorithms. Concurrently, multiobjective feature selection (MOFS) algorithms strive to balance the complexity of multiple optimization objectives during the FS process. These include minimizing the number of selected features while maximizing classification performance. Nonetheless, managing the complexity of feature combinations presents a formidable challenge, particularly in high-dimensional datasets. Evolutionary algorithms (EAs) are increasingly adopted in MOFS owing to their exceptional global search capabilities and robustness. Despite their strengths, EAs face difficulties in navigating expansive solution spaces and achieving a balance between exploration and exploitation. To address these challenges, this study introduces a novel information gain-based EA for MOFS, designated as IGEA. This approach utilizes a clustering method for selecting a diverse parent population, thereby enhancing individual variability and maintaining a high-quality population. Considerably, IGEA employs information gain as a metric to evaluate the contribution of features to classification tasks. This metric informs crucial operations such as crossover and mutation. Moreover, the study extensively examines the actual solutions derived from IGEA, focusing on feature correlation and redundancy. This analysis illuminates IGEA's adept handling of these aspects to refine MOFS. Experimental results on 23 widely used classification datasets confirm IGEA's superiority over five other state-of-the-art algorithms, demonstrating its enhanced effectiveness and efficiency in complex MOFS scenarios.
0
Citation3
0
Save