YY
Yang Yu
Author with expertise in Swarm Intelligence Optimization Algorithms
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
4
(0% Open Access)
Cited by:
563
h-index:
21
/
i10-index:
30
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Chaotic Local Search-Based Differential Evolution Algorithms for Optimization

Shangce Gao et al.Dec 24, 2019
JADE is a differential evolution (DE) algorithm and has been shown to be very competitive in comparison with other evolutionary optimization algorithms. However, it suffers from the premature convergence problem and is easily trapped into local optima. This article presents a novel JADE variant by incorporating chaotic local search (CLS) mechanisms into JADE to alleviate this problem. Taking advantages of the ergodicity and nonrepetitious nature of chaos, it can diversify the population and thus has a chance to explore a huge search space. Because of the inherent local exploitation ability, its embedded CLS can exploit a small region to refine solutions obtained by JADE. Hence, it can well balance the exploration and exploitation in a search process and further improve its performance. Four kinds of its CLS incorporation schemes are studied. Multiple chaotic maps are individually, randomly, parallelly, and memory-selectively incorporated into CLS. Experimental and statistical analyses are performed on a set of 53 benchmark functions and four real-world optimization problems. Results show that it has a superior performance in comparison with JADE and some other state-of-the-art optimization algorithms.
0

Improved Dendritic Learning: Activation Function Analysis

Yizheng Wang et al.Jun 1, 2024
This study conducted a thorough evaluation of an improved dendritic learning (DL) framework, focusing specifically on its application in power load forecasting. The objective was to optimise the activation functions within the synapses and somas of DL to enhance their adaptability across diverse real-world scenarios. Through a rigorous analysis involving 25 experiments across five activation functions (sigmoid, hyperbolic tangent (tanh), rectified linear unit (ReLU), leaky ReLU, and exponential linear unit (ELU)), we elucidated their impacts on both regression and classification performance. Notably, the leaky ReLU–tanh combination demonstrated exceptional mean performance and effectiveness across 14 benchmark datasets from the University of California Irvine Machine Learning Repository, surpassing alternative combinations. When applied to power load forecasting, this combination outperformed other models, particularly transformer and LSTM. These findings underscore the significant advantages of the leaky ReLU–tanh-based DL framework in accurately predicting electricity load in smart grids, as evidenced by the lowest mean absolute error (39.27), root mean squared error (29.13), and mean absolute percentage error (2.84).