【LLM】4:LoRA原理
创作时间:
作者:
@小白创作中心
【LLM】4:LoRA原理
引用
CSDN
1.
https://m.blog.csdn.net/zzz_cming/article/details/135141992
一、前言
大语言模型(Large Language Model,LLM)的出现,训练参数的级别直接跃迁到数十亿甚至数千亿,在模型微调、迁移学习小样本数据时,使用全量训练的成本是极大的。为优化时间、资源成本,LLM普遍使用的参数高效微调方法(简称PEFT):LoRA(Low-Rank Adaptation,低秩适配器)方法,其本质就是:基于低秩适应矩阵来调整源领域和目标领域之间的特征表示。
LLM参数个数都是极大的,在实际中发现,深度学习的矩阵维度通常都存在过参数化现象,全矩阵的某个子集可能与全矩阵保存真实或潜在的相似性,这被称为特征的内在维度,这部分高效率保存信息,但它的秩要比实际矩阵的秩小得多,在研究这部分低秩矩阵中发现以下两个现象:
- 如果我们找到了这个低秩的参数空间表示,再增加参数空间大小也不会对模型有显著的性能提升;
- 过参数的模型可以进行压缩,这也是LoRA方法提出的动机;
二、LoRA原理
和其他的串行适配器算法不同,LoRA的做法是在LLM某些矩阵的旁边插入一个并行矩阵。并行矩阵由A、B两个矩阵构成;
- 矩阵A:降维矩阵,将原有矩阵的秩由d降至r,r << d;
- 矩阵B:升维矩阵,将秩由r升至d;
- 初始化时,矩阵A使用高斯分布进行初始化,矩阵B使用全0矩阵;
- 训练时,固定左侧原有LLM的参数,只训练A、B两个矩阵,LoRA的秩r通常是个很小的数(1、2、4、8都行),因此它的训练非常高效,也不会带来显著的显存增加;
- 训练完成之后,可以直接将 矩阵A和 矩阵B直接加到原参数上,从而在推理时不会产生额外的推理延时;
在LLM大模型的训练中,两个全连接层的神经元个数可能非常大,比如全连接in层、out层各有10,000个神经元,那么在全参数训练中就有10,000 * 10,000个参数需要迭代;
而插入的LoRA层是一个维度非常小的低秩矩阵,比如维度是8 * 8,那现在的计算参数就等于10,000 * 8 * 2 + 8* 8,大大缩小了训练参数的个数;
形象的解释是:
LoRA层就好比是“中介”,将买家与卖家(in层与out层)各自的需求进行汇总,在“中介”内部完成信息交换,加快匹配速度。
三、LoRA配置参数解析
# # 伪代码
from transformers import AutoModel
from peft import LoraConfig, get_peft_model
def find_all_linear_names(model):
"""
找出所有全连接层,为所有全连接添加adapter
"""
cls = bnb.nn.Linear4bit
lora_module_names = set()
for name, module in model.named_modules():
if isinstance(module, cls):
names = name.split('.')
lora_module_names.add(names[0] if len(names) == 1 else names[-1])
if 'lm_head' in lora_module_names: # needed for 16-bit
lora_module_names.remove('lm_head')
return list(lora_module_names)
model = AutoModel.from_pretrained(xxx)
# # 找到需要插入LoRA的所有全连接层,不包括embed_tokens与lm_head层
target_modules = find_all_linear_names(model)
print('append lora layers: {target_modules})
# # 配置LoRA参数
config = LoraConfig(
r=16,
target_modules=target_modules,
lora_alpha=16,
lora_dropout=0.05,
fan_in_fan_out=False,
bias="none",
modules_to_save=None,
)
model = get_peft_model(model, config)
print("--------------------------------")
model.print_trainable_parameters() # # 打印模型中可训练参数的数量。
print("--------------------------------")
model.config.torch_dtype = torch.float32
常用参数解析:
- r (
int
):低秩矩阵的维度,通常是1、2、4、8、16、32、64; - target_modules (
Union[List[str],str]
):添加lora的目标模块名称; - lora_alpha (
int
):缩放参数,控制低秩矩阵的适应程度——越小的值对模型参数进行压缩的越强烈,可能会影响模型性能;越大的值,则减轻了对模型参数的压缩,可能保留了更多的模型性能。不同的模型可能有不同的默认值和具体用法; - lora_dropout (
float
):防止过拟合的dropout; - fan_in_fan_out (
bool
):是否将层的存储形式替换成(fan_in, fan_out)的样子,默认为False; - bias (
str
):是否添加偏置。参数选择为:[“none”,“all”,“lora_only”]。如果为"all"或"lora_only",则相应的偏差将在训练期间更新; - modules_to_save (
List[str]
):要在训练过程中保存的模块列表,默认为None表示不保存;
除此之外还有以下不常用的参数: - layers_to_transform (
Union[List[int],int]
): - layers_pattern (
str
): - rank_pattern (
dict
): - alpha_pattern (
dict
):
热门推荐
多地农信社改革将在2025年落地,部分采取“分步走”策略
《炉石传说》酒馆战棋基础机制科普
深度解析:化工并购重组新机遇何在?
数据存储方式大盘点:如何选择适合自己的存储方案?
租房平台的优缺点及选择建议
熬制鸡高汤:三种实用方法详解
吉尔吉斯斯坦市场深度解析:从需求到开发策略的全方位指南
HIIT动作减肥 | 6大高强度间歇性训练入门必试动作推介:好处多、消脂快
储能突破:锂资源新发现或解供应之困,锂电池需求激增探因
解除劳动合同证明书原因如何书写?
如何有效提升讲话的逻辑思维能力?
汽车充电桩设计的国家最新要求
我军作战模式要变了:装备智能无人化平台,珠海航展就有了迹象
车险领域水土不服?比亚迪保险去年赔付率超200%
引起体位性低血压的降压药
苹果上海最大代工厂生变 立讯精密或进驻昌硕科技部分厂房
守护青春脊梁:青少年特发性脊柱侧弯的预防与治疗
龙芯发布新一代CPU:性能媲美Intel第十代酷睿,50余家伙伴推出整机产品
氢燃料电池汽车不燃烧氢气?央视记者探访生产线揭秘核心技术
在感情中,独立不黏人的星座女
分手后如何调整情绪,走出低谷期(从自我认知、心理疏导到积极生活方式)
股票出现xd的原因是什么?xd标志对股票价格有何影响?
跨越生死的数字魔法:AI“复活”影响几何
20部全球高分婚姻家庭电影推荐:从喜剧到爱情,总有一部触动你的心弦
2025年房贷退税最新规定及申请指南
药物性肝损伤停药后能恢复吗
预防心脑血管疾病:这些检查项目要知道
一文读懂GPU的性能参数(非常详细),零基础入门到精通,看这一篇就够了
中国护照持有者轻松办理土耳其电子签证,在线申请流程详解
黑芝麻补钙实力派,营养丰富更给力