大模型微调新突破!23个最新创新方案,全面提升模型性能!
创作时间:
作者:
@小白创作中心
大模型微调新突破!23个最新创新方案,全面提升模型性能!
引用
CSDN
1.
https://blog.csdn.net/xiangxueerfei/article/details/139448936
大模型微调是近年来深度学习领域快速发展的一个研究方向,它通过在预训练好的大型语言模型基础上使用特定数据集进行进一步训练,以使模型适应特定任务或领域。这种方法相比从头训练一个大模型可以极大降低成本。本文总结了最近两年23篇顶会顶刊的前沿研究成果,重点介绍了QLORA、METAMATH和MELTR三个创新方法的技术细节和创新点。
QLORA:高效量化大模型微调方法
QLORA是一种高效的微调方法,通过以下关键技术减少内存使用,使得在单个48GB GPU上微调一个65B参数的模型成为可能,同时保持完整的16位微调任务性能:
- 4-bit NormalFloat (NF4):一种针对正态分布权重信息论最优的新数据类型,与4位整数和4位浮点数相比,具有更好的经验结果。
- Double Quantization:通过量化量化常数来减少平均内存占用的方法,平均每个参数可节省约0.37位。
- Paged Optimizers:使用NVIDIA统一内存特性来避免在处理长序列的mini-batch时发生的梯度检查点的内存峰值。
- Low Rank Adapters (LoRA):在量化的预训练模型中添加一小套可学习的低秩适配器权重,通过反向传播梯度进行微调。
创新点:
- 4-bit Quantization with NF4:提出了一种新的4位量化方法,专门针对通常具有零中心正态分布的预训练神经网络权重,通过将权重转换到[-1, 1]范围内,实现了信息论最优的量化。
- Double Quantization:创新性地对量化常数进行二次量化,显著降低了模型的内存占用,为大型模型的微调提供了可能性。
- Paged Optimizers:引入了一种新的内存管理策略,通过在CPU和GPU之间自动转移内存页来处理内存峰值,使得在资源受限的设备上微调大型模型成为可能。
- LoRA Integration:将LoRA技术与量化模型相结合,通过在量化的权重上添加低秩适配器,使得模型能够在微调过程中学习到更丰富的表示。
- State-of-the-art Performance:通过QLORA微调的模型,在Vicuna基准测试中达到了前所未有的性能水平,与ChatGPT的性能接近,同时大大减少了所需的计算资源。
- Extensive Analysis:对使用QLORA微调的1000多个模型进行了深入分析,涵盖了指令跟随和聊天机器人性能,这些分析在常规微调方法中由于内存开销而无法实现。
METAMATH:自举数学问题数据集
METAMATH提出了一种通过自举问题生成新数据集的方法,以提升大模型解决数学问题的能力。具体方法包括:
- 问题自举(Question Bootstrapping):通过从不同角度重新表述数学问题来自举问题,包括原始问题、LLM重述的问题、自我验证问题和FOBAR问题,以增加数据集的多样性。
- MetaMathQA数据集:结合了正向和逆向推理路径以及增强的答案,创建了一个新的数据集用于微调。
- 微调(Finetuning):在MetaMathQA数据集上微调现有的开源大型语言模型(如LLaMA-2),以提升其解决数学问题的能力。
- 答案增强(Answer Augmentation):利用少量示例和温度采样生成多个推理路径,并筛选出正确答案的路径作为数据集的补充。
- 问题重述:使用LLM对问题进行重述,以生成更多的训练样本,并通过监督方法评估重述问题与原始问题之间的一致性。
- 逆向推理问题:通过遮蔽问题中的一个标记(例如,用“x”标识),并要求模型在提供答案的情况下预测被遮蔽的标记,以增强模型的逆向推理能力。
创新点:
- MetaMath模型:提出了一种新的微调语言模型,专门用于数学推理,通过自举问题生成了新的数据集MetaMathQA。
- 正向与逆向推理结合:创新地结合了正向和逆向推理路径,以增强模型对数学知识的理解,而不是简单地记忆答案。
- 问题多样性:通过问题自举方法显著增加了问题分布的多样性,有助于模型覆盖更多未见场景,提高泛化能力。
- 简化的数据集:MetaMathQA数据集的简化特性可能使其成为激活LLMs潜在数学知识的有效激活器。
- 无需对比学习:即使没有采用对比学习,MetaMath模型也能在多个基准数据集上超越现有的开源LLMs,显示出数据增强方法的有效性。
- 开放资源:论文提供了MetaMathQA数据集、不同大小的MetaMath模型和训练代码,供公众使用,这有助于推动开源社区的发展。
- 显著的性能提升:MetaMath在GSM8K和MATH两个流行的数学推理基准测试中,相比其他开源LLMs取得了显著的性能提升。
MELTR:视频基础模型微调的元损失变换器
MELTR提出了一种用于学习如何微调视频基础模型的新框架。具体方法包括:
- MELTR是一个插件模块,能够自动且非线性地结合各种损失函数,通过辅助学习来帮助学习目标任务。
- 该框架将辅助学习问题表述为双层优化问题,并提出了一种基于近似隐式微分(AID)的高效优化算法。
- MELTR基于Transformer架构,接受目标任务损失和预文本任务损失作为输入,并通过自注意力学习它们之间的关系。
- 为了解决在小规模元数据(或验证数据集)时出现的元过拟合问题,MELTR引入了一个正则化项来鼓励学习到的损失保持在合理范围内。
- 论文将MELTR应用于多个视频基础模型(UniVL、Violet和All-in-one),并在四个下游任务(文本到视频检索、视频问题回答、视频字幕生成和多模态情感分析)上进行了评估。
创新点:
- MELTR是首个提出用于学习如何微调视频基础模型的元损失变换器,它能够自动学习如何结合多个辅助损失以提升目标任务的性能。
- 论文提出了一种新颖的双层优化问题的公式化方法,并通过AID算法提供了一种高效的解决方案,避免了传统方法中的高计算成本。
- MELTR通过自注意力机制学习损失函数之间的关系,能够非线性地转换单个损失函数并将其组合成有效的统一损失。
- 论文进行了深入的定性分析,展示了MELTR如何非线性地转换单个损失函数并将其组合成对目标下游任务有效的统一损失。
- MELTR在多个视频基础模型和五个基准视频数据集上的实验结果表明,其显著优于使用单一任务和多任务学习方案的基线。
- 论文还提供了对MELTR如何从辅助学习中学习、以及提出的优化方法是否高效的深入分析和讨论。
热门推荐
拒绝假犀牛角:从感官到科技的多重鉴别法
从甲状腺功能看怕热原因,专家支招健康度夏
攀枝花摄影攻略:三大景区拍摄点与技巧详解
11月攀枝花大峡谷红叶正盛,交通住宿全攻略
攀枝花苴却砚文化街区:传统工艺与现代艺术的完美融合
攀枝花务本桃花景区:秋冬季节的“天然氧吧”,徒步摄影两相宜
NLP+情感分析:AI对话系统如何实现类人交互
苹果拟推新版Siri应对IBM,两大科技巨头在AI领域展开新一轮较量
山火肆虐 洛杉矶约18万人收到疏散令 加州超42万户居民断电
初一期末考备考指南:两大高效复习法+心态调适全攻略
初中生英语单词学习攻略:从科学记忆到效果检验
超右脑记忆法:让初中生4天记住2000个单词
28天掌握中考词汇:初一学生的科学记忆法
iOS 17.5.1反诈指南:苹果设备三大防护功能详解
拉瓦勒主场迎战圣旺红星:连胜势头能否延续?
法乙焦点战:拉瓦勒主场迎战圣旺红星,谁将笑到最后?
稳血糖、护血管、增寿命:糖尿病人的饮食8大黄金法则
白芸豆提取物的功效和作用
小白鞋选购指南:7大要点助你买到优质好鞋
用CSS打造个性化网名,彰显你的独特魅力
清蜡车高效维护秘籍,让你省心又省钱!
荣丰清蜡车:石油工程的新宠儿
泰国降头术:神秘传说与现实真相
职场新人如何快速提升情商?
直男逆袭记:告别低情商朋友圈
低情商朋友圈让你倍感压力?这样做能帮你轻松应对
米诺地尔:从降压药到脱发治疗的“明星药物”
点阵激光术后护理全攻略:从饮食到防晒的全方位指南
米诺地尔真的能拯救你的脱发危机?
AAD 2024最新共识:低剂量口服米诺地尔治疗脱发的突破