LW
Ling Wang
Author with expertise in Scheduling Problems in Manufacturing Systems
Achievements
This user has not unlocked any achievements yet.
Key Stats
Upvotes received:
0
Publications:
8
(0% Open Access)
Cited by:
3
h-index:
29
/
i10-index:
60
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Scheduling stochastic distributed flexible job shops using an multi-objective evolutionary algorithm with simulation evaluation

Yaping Fu et al.Jun 4, 2024
The trend of reverse globalisation prompts manufacturing enterprises to adopt distributed structures with multiple factories for improving production efficiency, meeting customer requirements, and responding disturbance events. This study focuses on scheduling a distributed flexible job shop with random job processing time to achieve minimal makespan and minimal total tardiness. First, a stochastic programming model is established to formulate the concerned problems. Second, in accordance with the natures of two objectives and randomness, an evolutionary algorithm incorporating an evaluation method is designed. In it, population-based and external archive-based search processes are developed for searching candidate solutions, and the evaluation method integrates stochastic simulation and discrete event simulation to calculate objective values of acquired solutions. Finally, a mathematical optimisation solver, CPLEX, is employed to validate the developed model and optimisation approach. A set of cases is solved to verify the performance of the proposed method. The comparisons and discussions show the superiority of the proposed method for handling the problems under study.
0
Citation3
0
Save
0

Solving Orienteering Problems by Hybridizing Evolutionary Algorithm and Deep Reinforcement Learning

Rui Wang et al.Jan 1, 2024
The orienteering problem (OP) is widely applied in real life. However, as the scale of real-world problem scenarios grows quickly, traditional exact, heuristics and learning-based methods have difficulty balancing optimization accuracy and efficiency. This study proposes a problem decomposition-based double-layer optimization framework named DEA-DYPN to solve OPs. Using a diversity evolutionary algorithm (DEA) as the external optimizer and a dynamic pointer network (DYPN) as the inner optimizer, we significantly reduce the difficulty of solving large-scale OPs. Several targeted optimization operators are innovatively designed for stronger search ability, including a greedy population initialization heuristic, an elite strategy, a population restart mechanism, and a fitness-sharing selection strategy. Moreover, a dynamic embedding mechanism is introduced to DYPN to improve its characteristic learning ability. Extensive comparative experiments on OP instances with sizes from 20 to 500 are conducted for algorithmic performance validation. More experiments and analyses including the significance test, stability analysis, complexity analysis, sensitivity analysis, and ablation experiments are also conducted for comprehensive algorithmic evaluation. Experimental results show that our proposed DEA-DYPN ranks first according to the Friedman test, and outperforms the competitor algorithms at most 69%.
0

A Two-Layer Encoding Learning Swarm Optimizer Based on Frequent Itemsets for Sparse Large-Scale Multi-Objective Optimization

Sheng Qi et al.May 27, 2024
Traditional large-scale multi-objective optimization algorithms (LSMOEAs) encounter difficulties when dealing with sparse large-scale multi-objective optimization problems (SLM-OPs) where most decision variables are zero. As a result, many algorithms use a two-layer encoding approach to optimize binary variable Mask and real variable Dec separately. Nevertheless, existing optimizers often focus on locating non-zero variable positions to optimize the binary variables Mask. However, approximating the sparse distribution of real Pareto optimal solutions does not necessarily mean that the objective function is optimized. In data mining, it is common to mine frequent itemsets appearing together in a dataset to reveal the correlation between data. Inspired by this, we propose a novel two-layer encoding learning swarm optimizer based on frequent itemsets (TELSO) to address these SLMOPs. TELSO mined the frequent terms of multiple particles with better target values to find mask combinations that can obtain better objective values for fast convergence. Experimental results on five real-world problems and eight benchmark sets demonstrate that TELSO outperforms existing state-of-the-art sparse large-scale multi-objective evolutionary algorithms (SLMOEAs) in terms of performance and convergence speed.