基于混合策略的改进灰狼优化算法(IGWO)Matlab源码详解
基于混合策略的改进灰狼优化算法(IGWO)Matlab源码详解
本文介绍了一种基于混合策略的改进灰狼优化算法(IGWO)的Matlab实现。通过引入非线性调整收敛因子和记忆指导的位置更新方程,该算法在求解精度和收敛速度上均优于基本灰狼优化算法(GWO)及其变种。
理论基础
1. 基本灰狼优化算法(GWO)
(1) 种群初始化
(2) 种群搜索
(3) 种群位置更新
2. 改进的灰狼优化算法(IGWO)
(1) 基于对数函数的非线性调整收敛因子a
从图1可以清晰地看出,与原线性递减策略相比,该非线性过渡参数在更多的迭代中比较着重于局部开发。迭代中后期,所提出的非线性参数的值较小,这表明与全局勘探相比,它有助于长时间(约为最大迭代次数的62%)进行局部开发。该图还显示,在搜索过程中,所提出的非线性参数策略仅在约38%的迭代中有利于全局勘探。
(2) 基于记忆指导的位置更新方程
受粒子群算法的启发,让个体同时从全局最优位置和个体历史最优位置学习,基于此,提出了一种新的改进位置更新规则,计算如下:
(3) IGWO算法流程图
IGWO算法流程图如图2所示。
实验对比和分析
将IGWO算法分别与GWO、NGWO[1]、mGWO[2]、AWGWO[3]进行对比,以表1中的测试函数为例。种群规模N = 30,最大迭代次数max_iter = 500,每个算法独立运行30次。
表1 测试函数信息
结果显示如下:
函数:F1
- GWO:最差值: 4.5538e-27, 最优值: 7.8871e-29, 平均值: 9.9303e-28, 标准差: 1.1817e-27
- NGWO:最差值: 1.3402e-45, 最优值: 1.3192e-48, 平均值: 2.6566e-46, 标准差: 3.5005e-46
- mGWO:最差值: 2.2532e-35, 最优值: 3.7134e-38, 平均值: 3.8516e-36, 标准差: 6.1722e-36
- AWGWO:最差值: 4.1514e-30, 最优值: 9.7923e-33, 平均值: 6.1016e-31, 标准差: 1.0546e-30
- IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
函数:F2
- GWO:最差值: 2.3948e-16, 最优值: 1.3512e-17, 平均值: 8.7108e-17, 标准差: 6.3213e-17
- NGWO:最差值: 1.51e-26, 最优值: 1.7264e-28, 平均值: 3.1751e-27, 标准差: 3.2087e-27
- mGWO:最差值: 3.3107e-21, 最优值: 1.7986e-22, 平均值: 1.0732e-21, 标准差: 7.6252e-22
- AWGWO:最差值: 3.6215e-18, 最优值: 2.6132e-20, 平均值: 9.1034e-19, 标准差: 7.9641e-19
- IGWO:最差值: 5.5615e-182, 最优值: 7.7691e-185, 平均值: 8.8293e-183, 标准差: 0
函数:F3
- GWO:最差值: 0.00053804, 最优值: 1.1645e-08, 平均值: 3.7586e-05, 标准差: 0.00011057
- NGWO:最差值: 5.4632e-07, 最优值: 2.2342e-13, 平均值: 3.4851e-08, 标准差: 1.131e-07
- mGWO:最差值: 8.0394e-07, 最优值: 2.1788e-11, 平均值: 8.494e-08, 标准差: 1.7588e-07
- AWGWO:最差值: 1.7645e-05, 最优值: 3.7295e-10, 平均值: 1.3993e-06, 标准差: 3.6027e-06
- IGWO:最差值: 3.4287e-316, 最优值: 2.4703e-323, 平均值: 3.6825e-317, 标准差: 0
函数:F4
- GWO:最差值: 2.6611e-06, 最优值: 4.8008e-08, 平均值: 5.9381e-07, 标准差: 6.6322e-07
- NGWO:最差值: 4.6761e-12, 最优值: 3.2347e-14, 平均值: 7.71e-13, 标准差: 1.0471e-12
- mGWO:最差值: 7.7212e-08, 最优值: 6.6454e-11, 平均值: 4.3974e-09, 标准差: 1.393e-08
- AWGWO:最差值: 6.2579e-07, 最优值: 1.9064e-08, 平均值: 1.2364e-07, 标准差: 1.3387e-07
- IGWO:最差值: 8.3419e-168, 最优值: 1.4096e-171, 平均值: 5.8839e-169, 标准差: 0
函数:F5
- GWO:最差值: 0.0060729, 最优值: 0.00074177, 平均值: 0.0023733, 标准差: 0.00112
- NGWO:最差值: 0.0070021, 最优值: 0.00026744, 平均值: 0.0015789, 标准差: 0.0013159
- mGWO:最差值: 0.0026827, 最优值: 0.00025328, 平均值: 0.0011614, 标准差: 0.0006078
- AWGWO:最差值: 0.0030451, 最优值: 0.00051754, 平均值: 0.0016609, 标准差: 0.00069748
- IGWO:最差值: 0.00036823, 最优值: 6.7039e-06, 平均值: 7.4607e-05, 标准差: 8.0542e-05
函数:F6
- GWO:最差值: 20.0176, 最优值: 5.6843e-14, 平均值: 3.716, 标准差: 4.8392
- NGWO:最差值: 3.979e-12, 最优值: 0, 平均值: 1.3263e-13, 标准差: 7.2647e-13
- mGWO:最差值: 3.9036, 最优值: 0, 平均值: 0.13012, 标准差: 0.7127
- AWGWO:最差值: 17.6185, 最优值: 0, 平均值: 1.9925, 标准差: 4.0692
- IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
函数:F7
- GWO:最差值: 1.3589e-13, 最优值: 7.5495e-14, 平均值: 1.0332e-13, 标准差: 1.1353e-14
- NGWO:最差值: 1.1546e-14, 最优值: 4.4409e-15, 平均值: 8.112e-15, 标准差: 1.1363e-15
- mGWO:最差值: 2.931e-14, 最优值: 1.5099e-14, 平均值: 2.2678e-14, 标准差: 4.3495e-15
- AWGWO:最差值: 6.4837e-14, 最优值: 3.9968e-14, 平均值: 4.6126e-14, 标准差: 6.5928e-15
- IGWO:最差值: 4.4409e-15, 最优值: 4.4409e-15, 平均值: 4.4409e-15, 标准差: 0
函数:F8
- GWO:最差值: 0.017396, 最优值: 0, 平均值: 0.0019962, 标准差: 0.0052257
- NGWO:最差值: 0.01022, 最优值: 0, 平均值: 0.00034068, 标准差: 0.001866
- mGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
- AWGWO:最差值: 0.022753, 最优值: 0, 平均值: 0.0017797, 标准差: 0.0055464
- IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
8个标准测试函数的实验结果表明,所提出的IGWO算法无论在求解精度还是收敛速度指标上均要优于基本GWO、NGWO、mGWO和AWGWO算法。
参考文献
[1] Wen Long. Grey Wolf Optimizer based on Nonlinear Adjustment Control Parameter[P]. Proceedings of the 2016 4th International Conference on Sensors, Mechatronics and Automation (ICSMA 2016),2016.
[2] Nitin Mittal,Urvinder Singh,Balwinder Singh Sohi. Modified Grey Wolf Optimizer for Global Engineering Optimization[J]. Applied Computational Intelligence and Soft Computing,2016,2016:
[3] Luis Rodríguez,Oscar Castillo,José Soria,Patricia Melin,Fevrier Valdez,Claudia I. Gonzalez,Gabriela E. Martinez,Jesus Soto. A fuzzy hierarchical operator in the grey wolf optimizer algorithm[J]. Applied Soft Computing,2017,57:
[4] Wen Long,Jianjun Jiao,Ximing Liang,Mingzhu Tang. Inspired grey wolf optimizer for solving large-scale function optimization proble ms[J]. Applied Mathematical Modelling,2018,60: