JW
Jiahai Wang
Author with expertise in Multiobjective Optimization in Evolutionary Algorithms
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
5
(20% Open Access)
Cited by:
1,040
h-index:
38
/
i10-index:
93
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Dendritic Neuron Model With Effective Learning Algorithms for Classification, Approximation, and Prediction

Shangce Gao et al.Jul 10, 2018
An artificial neural network (ANN) that mimics the information processing mechanisms and procedures of neurons in human brains has achieved a great success in many fields, e.g., classification, prediction, and control. However, traditional ANNs suffer from many problems, such as the hard understanding problem, the slow and difficult training problems, and the difficulty to scale them up. These problems motivate us to develop a new dendritic neuron model (DNM) by considering the nonlinearity of synapses, not only for a better understanding of a biological neuronal system, but also for providing a more useful method for solving practical problems. To achieve its better performance for solving problems, six learning algorithms including biogeography-based optimization, particle swarm optimization, genetic algorithm, ant colony optimization, evolutionary strategy, and population-based incremental learning are for the first time used to train it. The best combination of its user-defined parameters has been systemically investigated by using the Taguchi's experimental design method. The experiments on 14 different problems involving classification, approximation, and prediction are conducted by using a multilayer perceptron and the proposed DNM. The results suggest that the proposed learning algorithms are effective and promising for training DNM and thus make DNM more powerful in solving classification, approximation, and prediction problems.
0

Chaotic Local Search-Based Differential Evolution Algorithms for Optimization

Shangce Gao et al.Dec 24, 2019
JADE is a differential evolution (DE) algorithm and has been shown to be very competitive in comparison with other evolutionary optimization algorithms. However, it suffers from the premature convergence problem and is easily trapped into local optima. This article presents a novel JADE variant by incorporating chaotic local search (CLS) mechanisms into JADE to alleviate this problem. Taking advantages of the ergodicity and nonrepetitious nature of chaos, it can diversify the population and thus has a chance to explore a huge search space. Because of the inherent local exploitation ability, its embedded CLS can exploit a small region to refine solutions obtained by JADE. Hence, it can well balance the exploration and exploitation in a search process and further improve its performance. Four kinds of its CLS incorporation schemes are studied. Multiple chaotic maps are individually, randomly, parallelly, and memory-selectively incorporated into CLS. Experimental and statistical analyses are performed on a set of 53 benchmark functions and four real-world optimization problems. Results show that it has a superior performance in comparison with JADE and some other state-of-the-art optimization algorithms.