问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

对AI大模型微调(Fine-tuning)的深入理解

创作时间:
作者:
@小白创作中心

对AI大模型微调(Fine-tuning)的深入理解

引用
CSDN
1.
https://blog.csdn.net/bylander/article/details/137977774

上图来自Andrew Ng(即吴恩达),描述了训练大模型的各个阶段。预训练阶段就是预测下一个token的阶段,对数据质量要求不高,但是数据量大。第二个阶段,SFT(supervised finetuning),就是有监督的微调,对数据有高质量要求。接下来RLHF阶段,包括奖励模型训练阶段和强化学习两个阶段,完成最后的模型。图中标出了各个阶段的数据样式和数据量需求,非常直观。

有一种假设认为,大模型的知识能力主要来自预训练阶段,微调阶段无法注入新的知识,SFT阶段只是加强指令跟随的能力,最后的RLHF阶段则用于让大模型对齐人类的价值观。但也有观点认为,如果微调阶段的数据量足够多,也可以注入新的知识。

为了更好地理解微调的概念,我们可以将其与一个人的学习过程进行类比。预训练阶段类似于学校教育,从小学到博士的系统学习;SFT阶段类似于进入工作岗位后的短期实习,帮助快速适应工作环境;RLHF阶段则类似于学习单位的规章制度,了解什么可以做、什么不可以做,以及如何与同事相处等。

微调(Fine-tuning)的定义是:利用已经预训练的模型结构或部分结构,以及其权重,与新增的网络部分一起训练。这个概念最早来自BERT论文(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,2018年)。从头训练大规模的神经网络效率低、速度慢,而基于已有预训练模型,在最优点的附近开始寻优,可以显著提高收敛速度和训练效果。

BERT论文提出了两种预训练语言模型的方式:

  1. Feature-based方式:利用预训练好的语言模型的结果,将得到的词向量作为额外特征融入到下游任务中,参与下游任务的训练。典型的代表是ELMo。基于特征的预训练只需要词向量,预训练模型的参数不参与下游任务的梯度更新。

  2. Fine-tuning方式:在预训练好的语言模型基础上,加入少量的 task-specific parameters。例如,对于分类问题,可以在语言模型基础上加一层全连接层或直接Softmax进行分类。在这种方式下,模型的参数仍然是可训练的。

网上有一段总结,非常简明扼要,整理并补充如下:

  • 语言模型微调(finetuning)指的是在预训练的基础模型上进行进一步训练。常见的微调技术包括:

  • 继续预训练(continued pretraining):增加领域数据,继续预训练,让模型更好地学习领域知识

  • 指令微调(instruction tuning)

  • 监督微调(SFT)

  • 人工反馈强化学习(RLHF)

  • 语言模型微调主要有两个目标:

  • 知识注入:向模型注入新的知识来解决新的问题

  • 对齐(alignment):调整模型输出格式、风格等,避免输出错误信息

  • 大规模指令微调可以通过在大规模数据集上进行指令微调来实现知识注入;如Google的FLAN模型在1500万训练例上进行指令微调。

  • 对齐微调不需要大量数据,只需要少量高质量样本。如Meta的LIMA研究只需要少量数据就可以学会模仿GPT-3的输出。

  • 近期研究发现,语言模型大部分知识来自预训练,对齐微调只是学习输出格式。因此不能通过简单的模仿微调就获得类似ChatGPT的强大语言能力。

  • 当前研究正在探讨预训练和微调的界限,以及不同的数据集和方法对语言模型微调的影响。选择合适的方法对知识注入和对齐微调非常重要。

基于参数更新范围,微调技术又可以分为全量微调和部分微调。SFT这种方式,需要全量调整模型参数,比较昂贵。所以发展出参数高效微调技术,即PEFT (Parameter-Efficient Fine-Tuning),通过仅训练一小部分参数优化下游任务性能,这些参数可能是现有模型参数的子集或一组新添加的参数,就可以接近甚至超过全量微调的效果。具体技术分类大约包括:

  • Adapter methods:Adapter、AdapterFusion、AdapterDrop
  • Reparameterization:LoRA,AdaLoRA,QLoRA
  • Prompt modifications:Prefix-tuning,Prompt-Tuning,P-Tuning
© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号