SDPSO:策略动态粒子群优化算法
SDPSO:策略动态粒子群优化算法
本文介绍了一种结合策略动态的粒子群优化算法(SDPSO),该算法专门用于解决单目标优化问题。通过整合四种不同的PSO搜索策略,并引入进化博弈理论,SDPSO能够有效控制种群状态,提升算法在解决复杂优化问题时的性能和适应性。
1. 摘要
本文提出了一种结合策略动态的粒子群优化算法(SDPSO),专门用于解决单目标优化问题。该方法整合了四种不同的PSO搜索策略,并引入进化博弈理论以有效控制种群状态。利用进化博弈理论中玩家之间的互动,可以确保更有效的策略逐渐在种群中占据主导地位。此外,研究提出了选择机制和变异机制,分别用于提升高效策略的采用率和评估现有策略在面对进化压力时的稳定性,这些机制共同促进了算法在解决复杂优化问题时的性能和适应性。
2. 粒子群算法PSO原理
粒子群优化算法(PSO)是一种基于群体智能的优化算法,模拟鸟群觅食行为。每个粒子代表一个潜在的解决方案,通过在解空间中移动来寻找最优解。粒子的移动速度和位置更新基于自身的最佳位置(pbest)和全局最佳位置(gbest)。
3. SPPSO
3.1 改进PSO
线性递减惯性权重粒子群优化算法LDWPSO
V_i^d=\omega V_i^d+c_1\times rand1_i^d\times\left(pbest_i^d-X_i^d\right)+c_2\times rand2_i^d\times\left(gbest_i^d-X_i^d\right)\
X_i^d=X_i^d+V_i^d
统一粒子群优化算法UPSO
G_i^d=\mathscr{X}\left[V_i^d+c_1\times rand1_i^d\times\left(pbest_i^d-X_i^d\right)+c_2\times rand2_i^d\times\left(gbest_i^d-X_i^d\right)\right]\
L_i^d=\mathscr{X}\left[V_i^d+c_1\times rand3_i^d\times\left(pbest_i^d-X_i^d\right)+c_2\times rand4_i^d\times\left(nbest_i^d-X_i^d\right)\right]
基于距离的局部信息粒子群优化算法LIPS
V_i^d=\mathscr{K}\left(V_i^d+\varphi\left(P_i^d-X_i^d\right)\right)
其中,各参数为:
\varphi\sim U\left(0,\frac{4.1}{nsize}\right)\
P_{i}=\frac{\sum_{j=1}^{nsize}\left(\varphi_j\times nbest_j\right)/nsize}{\varphi}
综合学习粒子群优化算法CLPSO
V_i^d=\omega V_i^d+c_1\times rand_i^d\times\left(pbest_{fi(d)}^d-X_i^d\right)
决策取决于学习概率Pci:
Pc_i=a+b\times\frac{\left(\exp\left(\frac{10(i-1)}{N-1}\right)-1\right)}{(\exp\left(10\right)-1)}
3.2 进化博弈论
进化博弈理论最初是作为博弈理论在生物学领域的应用和扩展,现今已经被广泛应用于经济、金融以及其他多个领域。在进化过程中,选择机制和变异机制是两个基础元素,而复制动力学和进化稳定策略(ESS)则是两个关键概念,分别强调了选择和变异的重要性。
进化稳定策略
假设大多数群体成员采用策略x ∈ Δ,而一小部分群体成员采用策略y ∈ Δ(变异策略)。令ϵ表示突变者的比例ϵ ∈ (0,1),在这个群体中的策略可以看作个体w = ϵ y + (1 − ϵ) x ∈ Δ混合策略。因此,如果策略x是ESS,则下式成立:
u(x,ϵ y+(1−ϵ)x)>u(y,ϵ y+(1−ϵ)x)
复制动力学
复制动力学是用一组普通微分方程来建模的,这些方程描述了策略在种群中的扩散和变化。通过这些模型,可以计算出种群的平均收益:
u(x,x)=\sum_{h=1}^kx_hu(e^h,x)
复制动力学如下:
\dot{x}_h=\begin{bmatrix}u(e^h,x)-u(x,x)\end{bmatrix}x_h
其思想是:使用高于平均收益策略的亚群体将增长,而使用低于平均收益策略的亚群体将减少。
如果进行离散时间建模,则有:
x_h(t+1)=x_h(t)+x_h(t)\left[u(e^h,x)-u(x,x)\right]
3.3 基于进化博弈的多策略粒子群优化算法
SDPSO的思想是将多个PSO策略组合到一个算法中,为每个策略分配适当比例的种群,并保持策略的多样性。
为了评估每种策略的收益,我们按照以下方式计算在学习期间每次成功更新 pbesti 时的策略改进Δ F h:
Δ F_h(t)=Δ F_h(t)+\frac{F(pbest_i)-F(X_i)}{F(pbest_i)}
当一个学习周期结束时,每次适应度评估的平均策略改进Δ F h:
Δ F_h(t)=\frac{\Delta F_h(t)}{FE_h(t)}
对Δ F h进行归一化:
u_h(t)=\frac{\overline{{\Delta F_{h}}}(t)}{\sum_{h=1}^{k}\overline{{\Delta F_{h}}}(t)}
选择机制
制动力学通过描述策略的频率分布如何随时间变化来测量策略的适应度。在固定人口规模的前提下,策略的采用概率与其收益正相关:高收益策略的采用概率增加速度更快,而低收益策略则相反。这种动态调整机制使得算法能够根据策略的表现适应性地调整其人口分布,从而在不同问题及其不同阶段上都能保持高效性。时间被假设为离散:
x_h(t+1)=x_h(t)+\alpha\times x_h(t)\times(u_h(t)-\overline{u}(t))
平均收益为:
\overline{u}(t)=x(t)\cdot u(t)^T
变异机制
ESS是一种策略,当整个种群采用这种策略时,它不会被少数携带突变基因型的小群体入侵,显示出对选择压力的高度稳健性。在提出的算法中,ESS用于检验PSO搜索策略在面对其他存在的策略时是否稳健。
4. 结果展示
CEC2014
5. 参考文献
[1] Liu Z, Nishi T. Strategy dynamics particle swarm optimizer[J]. Information Sciences, 2022, 582: 665-703.