大模型变“健忘症患者“?——公式揭秘灾难性遗忘的防治之道
创作时间:
作者:
@小白创作中心
大模型变“健忘症患者“?——公式揭秘灾难性遗忘的防治之道
引用
CSDN
1.
https://m.blog.csdn.net/qq_37148940/article/details/145791053
大模型在学习新任务时往往会遗忘旧任务的知识,这种现象被称为“灾难性遗忘”。本文通过类比和公式推导的方式,详细解释了弹性权重巩固(EWC)、知识蒸馏、梯度投影和回放策略等解决方案,并提供了EWC方法的代码实现。
核心结论:模型记忆就像橡皮泥,捏新形状时旧痕迹会消失
“给橡皮泥加铁丝骨架(正则化),或定期回放旧形状(回放策略),就能保持新旧记忆共存”
公式推演与类比解释
1. 核心公式对比表
公式名称 | 数学表达式 | 通俗解释 | 类比场景 |
---|---|---|---|
弹性权重巩固 | $L_{\text{total}} = L_{\text{new}} + \lambda \sum_i F_i (\theta_i - \theta_{\text{old},i})^2$ | 重要神经连接加防护罩 | 大脑重要记忆区设置保护屏障 |
知识蒸馏 | $L_{\text{KD}} = \alpha T^2 \text{KL}(q^{\text{old}} | q^{\text{new}}) + (1-\alpha)L_{\text{task}}$ | |
梯度投影 | $\min | g - g_{\text{new}} | ^2 \quad \text{s.t.} \quad g^T g_{\text{old}} \geq 0$ |
回放策略 | $L = \mathbb{E}{(x,y)\sim D{\text{new}}} [l(f(x),y)] + \beta \mathbb{E}{(x,y)\sim D{\text{old}}} [l(f(x),y)]$ | 新旧知识交替复习 | 背单词时定期复习前几课内容 |
2. 核心公式详解
公式1:弹性权重巩固(EWC)
$$
L = \underbrace{L_{\text{new}}(\theta)}{\text{新任务损失}} + \underbrace{\frac{\lambda}{2} \sum_i F_i (\theta_i - \theta{\text{old},i})^2}_{\text{记忆保护项}}
$$
参数 | 数学符号 | 类比解释 | 作用机制 |
---|---|---|---|
重要性矩阵 | $F_i$ | 神经连接的重要程度评分 | Fisher信息矩阵对角元素 |
旧参数 | $\theta_{\text{old}}$ | 橡皮泥的原始形状 | 预训练模型参数 |
惩罚系数 | $\lambda$ | 新旧记忆的平衡调节器 | 超参数调节新旧任务权重 |
案例应用:在BERT微调中,EWC保护语言理解相关的关键参数不被过度修改
公式2:梯度投影约束
$$
\begin{cases}
\min |g - g_{\text{new}}|^2 \
g^T g_{\text{old}} \geq 0
\end{cases}
$$
项 | 物理意义 | 类比解释 |
---|---|---|
$g_{\text{new}}$ | 新任务梯度方向 | 想学习的新技能方向 |
$g_{\text{old}}$ | 旧任务梯度方向 | 已掌握的技能方向 |
$g^T g_{\text{old}}$ | 方向一致性检测 | 确保不背道而驰的指南针 |
3. 进阶公式推导
动态网络扩展
$$
\theta = \theta_{\text{base}} \oplus \theta_{\text{new}}
$$
$$
\mathcal{M}(x) = f_{\theta_{\text{base}}}(x) + g_{\theta_{\text{new}}}(x)
$$
参数隔离策略
$$
\mathbb{P}(w_i \text{被冻结}) = \frac{e^{-\gamma F_i}}{\sum_j e^{-\gamma F_j}}
$$
在线回放优化
$$
L_{\text{replay}} = \frac{1}{N}\sum_{i=1}^N \mathbb{E}{x\sim M_i} [\text{KL}(f{\theta}(x)||f_{\theta_i}(x))]
$$
代码实战:EWC方法实现
import torch
import numpy as np
from torch.nn.functional import kl_div
class EWC_Optimizer:
def __init__(self, model, lambda_=0.5):
self.model = model
self.lambda_ = lambda_
self.fisher_matrix = {}
self.old_params = {}
def calculate_fisher(self, dataset):
# 计算Fisher信息矩阵
fisher = {}
for name, param in self.model.named_parameters():
fisher[name] = torch.zeros_like(param)
for data, _ in dataset:
self.model.zero_grad()
output = self.model(data)
loss = torch.nn.functional.nll_loss(output, target)
loss.backward()
for name, param in self.model.named_parameters():
fisher[name] += param.grad.pow(2) / len(dataset)
self.fisher_matrix = fisher
self.old_params = {n:p.clone() for n,p in model.named_parameters()}
def penalty_loss(self):
loss = 0
for name, param in self.model.named_parameters():
old_param = self.old_params[name]
fisher = self.fisher_matrix[name]
loss += (fisher * (param - old_param).pow(2)).sum()
return self.lambda_ * loss
# 训练示例
ewc = EWC_Optimizer(model, lambda_=0.8)
ewc.calculate_fisher(old_task_loader) # 预训练任务数据
for epoch in range(100):
for data, target in new_task_loader:
optimizer.zero_grad()
output = model(data)
task_loss = F.cross_entropy(output, target)
ewc_loss = ewc.penalty_loss()
total_loss = task_loss + ewc_loss
total_loss.backward()
optimizer.step()
# 可视化Fisher矩阵
plt.figure(figsize=(10,6))
plt.imshow(np.log(ewc.fisher_matrix['layer1.weight'].cpu().numpy()+1e-9),
cmap='viridis')
plt.colorbar()
plt.title("Fisher Information Heatmap")
plt.show()
可视化解析
- Fisher矩阵热力图:显示神经网络各层参数重要性分布,颜色越亮表示对旧任务越关键
- 损失函数曲线:蓝色曲线显示新任务损失下降,红色曲线显示旧任务损失波动范围
- 参数分布雷达图:对比显示EWC约束下参数偏移量明显小于普通微调
公式体系总览
公式类型 | 典型代表 | 防御机制 |
---|---|---|
正则化公式 | EWC约束项 | 参数空间锚定 |
动态架构公式 | Progressive Neural Networks | 网络结构扩展 |
记忆回放公式 | iCaRL选择策略 | 样本重放机制 |
元学习公式 | MAML优化器 | 快速适应机制 |
热门推荐
中国五座最适合养老的城市:温暖、美食与美景的完美结合
DNS协议的作用是什么?
大爆炸后宇宙在加速膨胀而不是减慢?美国科学家的暗能量实验挑战爱因斯坦宇宙理论
海南省博物馆:领略琼岛文化瑰宝
治愈情感文案书籍:帮助人们走出情感困境的心灵良药
电子防潮柜的湿度控制范围及使用注意事项
联合国粮农组织:全球咖啡价格去年同比飙升38.8%,今年仍看涨
电脑内存的基本原理与发展历程
春季预防花粉症的五大方法
年度考核表个人工作总结:六大维度全面提升
探秘铜仁石阡:500年古韵悠悠,走进楼上古村落!
中国新冠疫情始末:时间线回顾
狼蛛:从形态特征到保护利用的全面解读
四岁儿童若淋巴结肿大,应如何处理
业内人士:客观看待程序化交易的市场影响
培训机构退费纠纷找哪些部门解决
8种常用的文档格式
高效解答阅读理解题的方法与技巧
钓小鱼全攻略:装备推荐和技巧详解,亲子活动必备
乔家大院:穿越时空,回溯晋商风云文化之旅
教育部、省教育厅接连发文:强调高校实验室安全工作
笔记本电脑过热怎么办?六大实用降温技巧全攻略
什么是齐次坐标系 为什么要用齐次坐标系
如何看懂护肤品里的成分表?
B站顶流大祥哥被骗1200万,A股竟成峰哥“救命稻草”?
山体滑坡知识培训课件
揭秘!5大因素影响血压计准确性?——家用血压计选购指南
机器人点焊的工作原理、优势及应用领域
铃木吉姆尼撞击测试仅获三星,安全配置存短板
在培训学校交的费用能退吗