问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

基于混合策略的改进灰狼优化算法(IGWO)Matlab源码详解

创作时间:
作者:
@小白创作中心

基于混合策略的改进灰狼优化算法(IGWO)Matlab源码详解

引用
CSDN
1.
https://m.blog.csdn.net/Matlab_dashi/article/details/140115006

本文介绍了一种基于混合策略的改进灰狼优化算法(IGWO)的Matlab实现。通过引入非线性调整收敛因子和记忆指导的位置更新方程,该算法在求解精度和收敛速度上均优于基本灰狼优化算法(GWO)及其变种。

理论基础

1. 基本灰狼优化算法(GWO)

(1) 种群初始化

(2) 种群搜索

(3) 种群位置更新

2. 改进的灰狼优化算法(IGWO)

(1) 基于对数函数的非线性调整收敛因子a

从图1可以清晰地看出,与原线性递减策略相比,该非线性过渡参数在更多的迭代中比较着重于局部开发。迭代中后期,所提出的非线性参数的值较小,这表明与全局勘探相比,它有助于长时间(约为最大迭代次数的62%)进行局部开发。该图还显示,在搜索过程中,所提出的非线性参数策略仅在约38%的迭代中有利于全局勘探。

(2) 基于记忆指导的位置更新方程

受粒子群算法的启发,让个体同时从全局最优位置和个体历史最优位置学习,基于此,提出了一种新的改进位置更新规则,计算如下:

(3) IGWO算法流程图

IGWO算法流程图如图2所示。

实验对比和分析

将IGWO算法分别与GWO、NGWO[1]、mGWO[2]、AWGWO[3]进行对比,以表1中的测试函数为例。种群规模N = 30,最大迭代次数max_iter = 500,每个算法独立运行30次。

表1 测试函数信息

结果显示如下:



函数:F1

  • GWO:最差值: 4.5538e-27, 最优值: 7.8871e-29, 平均值: 9.9303e-28, 标准差: 1.1817e-27
  • NGWO:最差值: 1.3402e-45, 最优值: 1.3192e-48, 平均值: 2.6566e-46, 标准差: 3.5005e-46
  • mGWO:最差值: 2.2532e-35, 最优值: 3.7134e-38, 平均值: 3.8516e-36, 标准差: 6.1722e-36
  • AWGWO:最差值: 4.1514e-30, 最优值: 9.7923e-33, 平均值: 6.1016e-31, 标准差: 1.0546e-30
  • IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0

函数:F2

  • GWO:最差值: 2.3948e-16, 最优值: 1.3512e-17, 平均值: 8.7108e-17, 标准差: 6.3213e-17
  • NGWO:最差值: 1.51e-26, 最优值: 1.7264e-28, 平均值: 3.1751e-27, 标准差: 3.2087e-27
  • mGWO:最差值: 3.3107e-21, 最优值: 1.7986e-22, 平均值: 1.0732e-21, 标准差: 7.6252e-22
  • AWGWO:最差值: 3.6215e-18, 最优值: 2.6132e-20, 平均值: 9.1034e-19, 标准差: 7.9641e-19
  • IGWO:最差值: 5.5615e-182, 最优值: 7.7691e-185, 平均值: 8.8293e-183, 标准差: 0

函数:F3

  • GWO:最差值: 0.00053804, 最优值: 1.1645e-08, 平均值: 3.7586e-05, 标准差: 0.00011057
  • NGWO:最差值: 5.4632e-07, 最优值: 2.2342e-13, 平均值: 3.4851e-08, 标准差: 1.131e-07
  • mGWO:最差值: 8.0394e-07, 最优值: 2.1788e-11, 平均值: 8.494e-08, 标准差: 1.7588e-07
  • AWGWO:最差值: 1.7645e-05, 最优值: 3.7295e-10, 平均值: 1.3993e-06, 标准差: 3.6027e-06
  • IGWO:最差值: 3.4287e-316, 最优值: 2.4703e-323, 平均值: 3.6825e-317, 标准差: 0

函数:F4

  • GWO:最差值: 2.6611e-06, 最优值: 4.8008e-08, 平均值: 5.9381e-07, 标准差: 6.6322e-07
  • NGWO:最差值: 4.6761e-12, 最优值: 3.2347e-14, 平均值: 7.71e-13, 标准差: 1.0471e-12
  • mGWO:最差值: 7.7212e-08, 最优值: 6.6454e-11, 平均值: 4.3974e-09, 标准差: 1.393e-08
  • AWGWO:最差值: 6.2579e-07, 最优值: 1.9064e-08, 平均值: 1.2364e-07, 标准差: 1.3387e-07
  • IGWO:最差值: 8.3419e-168, 最优值: 1.4096e-171, 平均值: 5.8839e-169, 标准差: 0

函数:F5

  • GWO:最差值: 0.0060729, 最优值: 0.00074177, 平均值: 0.0023733, 标准差: 0.00112
  • NGWO:最差值: 0.0070021, 最优值: 0.00026744, 平均值: 0.0015789, 标准差: 0.0013159
  • mGWO:最差值: 0.0026827, 最优值: 0.00025328, 平均值: 0.0011614, 标准差: 0.0006078
  • AWGWO:最差值: 0.0030451, 最优值: 0.00051754, 平均值: 0.0016609, 标准差: 0.00069748
  • IGWO:最差值: 0.00036823, 最优值: 6.7039e-06, 平均值: 7.4607e-05, 标准差: 8.0542e-05

函数:F6

  • GWO:最差值: 20.0176, 最优值: 5.6843e-14, 平均值: 3.716, 标准差: 4.8392
  • NGWO:最差值: 3.979e-12, 最优值: 0, 平均值: 1.3263e-13, 标准差: 7.2647e-13
  • mGWO:最差值: 3.9036, 最优值: 0, 平均值: 0.13012, 标准差: 0.7127
  • AWGWO:最差值: 17.6185, 最优值: 0, 平均值: 1.9925, 标准差: 4.0692
  • IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0

函数:F7

  • GWO:最差值: 1.3589e-13, 最优值: 7.5495e-14, 平均值: 1.0332e-13, 标准差: 1.1353e-14
  • NGWO:最差值: 1.1546e-14, 最优值: 4.4409e-15, 平均值: 8.112e-15, 标准差: 1.1363e-15
  • mGWO:最差值: 2.931e-14, 最优值: 1.5099e-14, 平均值: 2.2678e-14, 标准差: 4.3495e-15
  • AWGWO:最差值: 6.4837e-14, 最优值: 3.9968e-14, 平均值: 4.6126e-14, 标准差: 6.5928e-15
  • IGWO:最差值: 4.4409e-15, 最优值: 4.4409e-15, 平均值: 4.4409e-15, 标准差: 0

函数:F8

  • GWO:最差值: 0.017396, 最优值: 0, 平均值: 0.0019962, 标准差: 0.0052257
  • NGWO:最差值: 0.01022, 最优值: 0, 平均值: 0.00034068, 标准差: 0.001866
  • mGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0
  • AWGWO:最差值: 0.022753, 最优值: 0, 平均值: 0.0017797, 标准差: 0.0055464
  • IGWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0

8个标准测试函数的实验结果表明,所提出的IGWO算法无论在求解精度还是收敛速度指标上均要优于基本GWO、NGWO、mGWO和AWGWO算法。

参考文献

[1] Wen Long. Grey Wolf Optimizer based on Nonlinear Adjustment Control Parameter[P]. Proceedings of the 2016 4th International Conference on Sensors, Mechatronics and Automation (ICSMA 2016),2016.

[2] Nitin Mittal,Urvinder Singh,Balwinder Singh Sohi. Modified Grey Wolf Optimizer for Global Engineering Optimization[J]. Applied Computational Intelligence and Soft Computing,2016,2016:

[3] Luis Rodríguez,Oscar Castillo,José Soria,Patricia Melin,Fevrier Valdez,Claudia I. Gonzalez,Gabriela E. Martinez,Jesus Soto. A fuzzy hierarchical operator in the grey wolf optimizer algorithm[J]. Applied Soft Computing,2017,57:

[4] Wen Long,Jianjun Jiao,Ximing Liang,Mingzhu Tang. Inspired grey wolf optimizer for solving large-scale function optimization proble ms[J]. Applied Mathematical Modelling,2018,60:

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号