问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

手把手教你用LoRA训练自己的Stable Diffusion模型

创作时间:
作者:
@小白创作中心

手把手教你用LoRA训练自己的Stable Diffusion模型

引用
CSDN
1.
https://blog.csdn.net/xian0710830114/article/details/138899778

目录
写在前面
一、准备数据
二、数据打标签
三、执行训练
四、执行推理
1.LoRA推理
2.全参数推理

写在前面

Stable Diffusion大家已经很熟悉了,那么如何训练自己的sd模型呢,今天就介绍一下用LoRA训练sd的方法。

建议先看一下这两篇文章,了解一些前置知识:

  • 手把手教你在linux中部署stable-diffusion-webui
  • 如何训练一个大模型:LoRA篇

我们以Chilloutmix为例,Chilloutmix可以生成好看的小姐姐。为了实验LoRA的能力,我们用小哥哥的图片对它进行微调,看效果如何。

一、准备数据

从网上找一些小帅的图片,需要脸部清晰的、多角度的、正脸的、侧脸的、最好是背景干净的、各种表情的,这样增加训练集的多样性,提高模型的泛化能力。

素材可以少(一般几十张就不少了,太多了也会过拟合),但是质量一定要高。

背景最好是纯色,想训练什么就突出什么,对于我们的任务,需要选取人脸为重点的图片。

搜集好训练用的图像后,需要进行大小的规范处理,需要是64的倍数。一般都处理为512512,也可以是768768,不建议超过1024,尺寸越大则越吃显存。

推荐一个批量处理图像尺寸的网站挺好用的:https://www.birme.net/

处理后的图片长这样:

二、数据打标签

其实我们要训练的是ControlNet,现在图片有了,还差图片的描述或者叫标签。我们不需要自己手动给每张图片打标签,sd-webui有现成的工具(DeepBooru)生成图片的标签。

在sd-webui中进行如上操作,在3填写输入图片的目录,4填写输出目录,处理之后原图片和标签文件txt都会放在输出目录

txt中的内容长这样,都是一个一个的标签:

接下来我们要检查每张图片的标签,这里有两个简单的原则:

1.通用的特征标签需要去掉,比如人物的眼睛、眉毛、鼻子、头发长度等代表人物本身的属性。凡是绑定在人物身上的,就要把它们删除。再比如出图只要黑色头发,那训练数据都喂黑色头发,并且删掉类似“black_hair”的标签。

2.留下非通用的标签,比如不是每张训练数据都是微笑的,所以对于微笑的数据应该有“smile”标签;不是所有的数据背景都是白色,就要保留“white backgroud”。

具体保留或者增加什么标签其实没有硬性的规定,还是要根据具体情况反复尝试。

sd-webui是有打标签的插件的,但是我更喜欢一款小工具,方便多人使用,BooruDatasetTagManager,地址:https://pan.baidu.com/s/1Ff7nkwf95AziCcZWTofIzg?pwd=jfoe

数据和标签准备好后放在一个自定义的目录中待用,有一点需要注意,文件名的格式是数字_字母,前面的数字是每次训练过程中网络训练单张图片的次数,比如10_asianman这个目录命名很重要,一定不要写错!!!

三、执行训练

LoRA训练我们使用kohya,kohya是日本人开发的,所以会经常出现日文,凑活这看吧。

1.建一个conda环境

conda create --name kohya python=3.10  

2.进入环境

conda activate kohya  

3.下载kohya,别忘了下载sd-scripts目录中的项目:kohya-ss (Kohya S.) · GitHub,下载后执行:

pip install -r requirements.txt  

4.因为我们是对Chilloutmix进行微调,所以先在这里下载Chilloutmix,并放在model目录下。

5.启动kohya:

python kohya_gui.py --listen 0.0.0.0 --server_port 12348 --inbrowser  

6.打开地址http://[ip]:12348/ ,并填写配置信息:

同时Parameters菜单中还有一些高级设置,比如batch size、train steps、LoRA的秩、Alpha等:

一些注意:

1.训练时的总epoch数是算出来的,上面的Epoch好像没有用,计算公式是:

Max train steps * Train batch size / (数据总数 * 训练单张图片的次数),这算法很奇怪,他把Train batch size当做了batch size per device

2.LoRA的秩用8就可以了,Alpha训练人物一般都设32,64都可以;训练风格可以用到128。

  1. 我看到有的文章说不能直接用safetensors文件直接训练,必须还要有config.json,但是我没有遇到这种情况。如果遇到了可以下载这个,放在项目根目录的openai/clip-vit-large-patch14 和 laion/CLIP-ViT-bigG-14-laion2B-39B-b160k

4.如果要全参数训练只需选择Dreambooth菜单,其它使用方式和LoRA基本相同:

5.如果报这个错的话:'FieldInfo' object has no attribute 'required'. Did you mean: 'is_required'?,是一些库的版本冲突了,可以试试如下命令:

pip install gradio==3.48.0  
pip install pydantic==1.10.13 pydantic_core==2.14.6  
pip install transformers==4.38.0  
pip install accelerate==0.25.0  
pip install torch==2.1.1  
pip install xformers==0.0.23  

四、执行推理

训练成功后模型会存在输出目录,比如叫做models/last-000007.safetensors。

1.LoRA推理

(1)安装additional-networks

如果sd-weiui的“text2img”和“img2text”中已经有Additional Networks菜单,则之间跳过该步骤。

安装additional-networks插件,有两种方式:

a.在“Extensions-URL for extension's git repository”输入https://github.com/kohya-ss/sd-webui-additional-networks就可以安装了。

b.如果网络不允许的话,就自行下载压缩包解压放到SD的extensions目录下。

安装完之后一定要重启sd进程!之后我们可以看到选项卡上多了一个Additional Network选项。

(2)将Chilloutmix基础模型放在models/Stable-diffusion目录

(3)将训练完的LoRA模型放在sd-webui的extensions/sd-webui-additional-networks/models/lora目录

(4)使用基础模型重绘一张图片看看,都是小姐姐:

(5)使用LORA,再生成看看:

emmm,已经有很强的男性特征,证明LoRA生效了。

2.全参数推理

如果使用全参数训练的模型,模型结果比较大,有几个g。使用更简单了,放在models/Stable-diffusion中,直接选择这个模型就可以了。

用LoRA训练自己的SD模型就介绍到这里,关注不迷路(#^.^#)

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号