4.6 4bit量化与QLoRA模型训练
创作时间:
作者:
@小白创作中心
4.6 4bit量化与QLoRA模型训练
引用
CSDN
1.
https://blog.csdn.net/a131529/article/details/143060583
本文将介绍4bit量化与QLoRA模型训练的相关内容。从量化的本质出发,详细讲解4bit量化、线性量化以及QLoRA的核心思想,并通过代码实战演练展示具体实现过程。
1 量化的本质
4bit表示的范围是[-128,127]
2 4bit量化
4bit表示的范围是[-8,7]
3 线性量化
量化效果和数据的分布方式息息相关
4 QLoRA
QLoRA 的核心思想是在大型语言模型的微调过程中,采用4-bit 量化来压缩模型的权重,从而减少显存的占用,并使用LoRA技术来对模型进行微调。
具体来讲,QLoRA实现了3件事儿,分别是:
- NF4量化
- 双重量化
- 分页优化器
4.1 NF4量化
4.1.1 分位数量化
4.1.2 完整实例
看了上面那么多,可能有点懵,其实看下面这个例子即可:
- 先对原始数据进行归一化;
- 接着将其与NF4进行匹配得到临近表示;
- 再将其按表中顺序映射为[0,15]即可。
4.2 双重量化
4.3 分页优化器
5 代码实战演练
5.1 导包
from datasets import Dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, DataCollatorForSeq2Seq, TrainingArguments, Trainer
5.2 加载数据集
ds = Dataset.load_from_disk("../data/alpaca_data_zh/")
ds
5.3 数据集处理
tokenizer = AutoTokenizer.from_pretrained("D:/Pretrained_models/modelscope/Llama-2-7b-ms")
tokenizer
tokenizer.padding_side = "right" # 一定要设置padding_side为right,否则batch大于1时可能不收敛
tokenizer.pad_token_id = 2 # 半精度训练时,正确加入eos_token后,要将pad_token_id也设置为eos_token_id,否则会因为溢出问题导致模型无法正常收敛
def process_func(example):
MAX_LENGTH = 384 # Llama分词器会将一个中文字切分为多个token,因此需要放开一些最大长度,保证数据的完整性
input_ids, attention_mask, labels = [], [], []
instruction = tokenizer("\n".join(["Human: " + example["instruction"], example["input"]]).strip() + "\n\nAssistant: ", add_special_tokens=False)
response = tokenizer(example["output"], add_special_tokens=False)
input_ids = instruction["input_ids"] + response["input_ids"] + [tokenizer.eos_token_id]
attention_mask = instruction["attention_mask"] + response["attention_mask"] + [1]
labels = [-100] * len(instruction["input_ids"]) + response["input_ids"] + [tokenizer.eos_token_id]
if len(input_ids) > MAX_LENGTH:
input_ids = input_ids[:MAX_LENGTH]
attention_mask = attention_mask[:MAX_LENGTH]
labels = labels[:MAX_LENGTH]
return {
"input_ids": input_ids,
"attention_mask": attention_mask,
"labels": labels
}
tokenized_ds = ds.map(process_func, remove_columns=ds.column_names)
tokenized_ds
5.4 创建模型
import torch
# 多卡情况,可以去掉device_map="auto",否则会将模型拆开
model = AutoModelForCausalLM.from_pretrained("D:/Pretrained_models/modelscope/Llama-2-13b-ms", low_cpu_mem_usage=True,
torch_dtype=torch.bfloat16, device_map="auto", load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True)
bnb_4bit_quant_type="nf4":指定了使用NF4量化类型
bnb_4bit_use_double_quant=True:这个参数启用了双重量化
bnb_4bit_compute_dtype=torch.bfloat16:电脑的卡较好情况下可以使用bfloat16,不太好就可以使用FP16,FP16有时候会出现一些溢出的问题
两者的区别:
for name, parameter in model.named_parameters():
print(name)

model.config
5.4.1 配置文件
from peft import LoraConfig, TaskType, get_peft_model
config = LoraConfig(task_type=TaskType.CAUSAL_LM)
config
5.4.2 构建模型
model = get_peft_model(model, config)
model.enable_input_require_grads() # 开启梯度检查点时,要执行该方法
model.print_trainable_parameters()
5.5 配置训练参数
args = TrainingArguments(
output_dir="./chatbot",
per_device_train_batch_size=1,
gradient_accumulation_steps=32,
logging_steps=10,
num_train_epochs=1,
gradient_checkpointing=True,
optim="paged_adamw_32bit"
)
optim="paged_adamw_32bit":使用32位分页优化器
5.6 创建训练器
trainer = Trainer(
model=model,
args=args,
train_dataset=tokenized_ds.select(range(6000)),
data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer, padding=True),
)
数据集较大,这里只选前6000条做训练
5.7 模型训练
trainer.train()
5.8 模型推理
model.eval()
ipt = tokenizer("Human: {}\n{}".format("你好", "").strip() + "\n\nAssistant: ", return_tensors="pt").to(model.device)
tokenizer.decode(model.generate(**ipt, max_length=512, do_sample=True, eos_token_id=tokenizer.eos_token_id)[0], skip_special_tokens=True)
热门推荐
冬日昆明自驾游:这些景点不能错过!
唐老师的中考物理电路图高效备考法
惠氏vs澳佳宝:孕妇叶酸补充剂全面对比评测
叶酸片:不只是孕妇的专属营养,这些人群也要当心
孕期补叶酸,这些误区你踩了吗?
都说早产的宝宝体质都会比较差?其实晚产儿也不是“省油的灯”!
早产儿与晚产儿:谁的健康风险更大?
水果捞新吃法大挑战:三种特色水果捞制作攻略
厨仟艺教你从零开始做水果捞!
周末带娃去果园摘果子吧!
彭德怀的战术创新:从抗美援朝到解放战争
彭德怀精神:当代青年的灯塔
彭德怀:长征中的铁血传奇
鸡蛋炒牛肉:高蛋白美味新吃法!
完美炒鸡蛋攻略:从基本技巧到创新做法
《奥特曼融合激战》:赛罗奥特曼角色扮演新体验
《奥特曼:集结》终极赛罗上线!攻防兼备的最强战士降临
黑暗赛罗:赛罗奥特曼最强对手?
《奥特曼系列OL》:赛罗奥特曼角色扮演新体验!
《简爱》揭示维多利亚时代婚姻真相
G4017次高铁最新时刻表及购票攻略
白头发白胡子是什么原因
科技赋能红色文化 遵义会议纪念馆VR体验获官方推荐
5G+VR让遵义会议纪念馆“活”起来:一场跨越时空的红色之旅
青钱柳:糖尿病患者的天然降糖新选择
《哆啦A梦》:大雄与静香的纯爱之旅
探秘石林:昆明最美自然奇观
昆明老街+滇池:历史文化的打卡圣地!
昆明石林:2.7亿年的地质传奇与阿诗玛的故乡
冬季养生新宠:腌制鸡蛋的正确打开方式