Stable Diffusion模型训练教程——最简流程模式
Stable Diffusion模型训练教程——最简流程模式
Stable Diffusion是一种基于深度学习的图像生成模型,能够根据文本描述生成高质量的图像。通过训练自己的模型,用户可以根据特定需求生成具有独特风格的图像,广泛应用于艺术创作、广告设计等领域。本文将为你介绍一个最简单的Stable Diffusion模型训练流程,让你快速拥有属于自己的AI绘画模型。
在接触到Stable Diffusion人物模型之后,有些同学想训练一款属于自己的模型,但是训练工具太多,参数五花八门,让人眼花缭乱。本文就从最简单的流程上来实现一次模型训练,简单到什么程度哪?除了几个点选项之外,不用输入任何参数,连触发提示词,学习率那些难懂的参数全都不写。
训练前准备
本训练教程,默认本地或者云端机器已经安装好完整的Stable Diffusion,已经安装dreambooth扩展,并且至少有一款基础模型。
处理训练素材
既然要训练,就要准备足够的训练素材,这里建议50张清晰高质量的照片,照片最好有各个角度。我在百度下载公开的杨幂照片,如下:
格式,文件名,都关系不大,本着最简单的前提,我们现在不做任何人工处理。
然后我们打开sd的训练tab:
这里让sd为我们做一次预处理,把刚才存储杨幂照片的文件夹地址填进入(源目录),再选择一个输出文件夹(目标目录)。然后设置统一处理的宽高,我这里设置为768(你保存的图像至少要大于768*768).
下面点选 blip和deepbooru任意一个,最简训练教程不需要管他们是干嘛的。
然后点击预处理
预处理进度走完以后,右侧会显示
现在打开我们设置的输出文件夹,你会看到:
现在你应该清楚预处理都做了什么,那就是把所有图像按比例处理为768*768,并且裁切掉比例外的部分,同时生成一份图片描述txt文件。
这样就会造成有些图片被切掉了头部
这一类的照片可以选择直接删除,如果你的样品够多的话。
也可以选择手工处理下
全都处理完以后,我们的out输出文件夹里都是比较完美的样本图片了
这里的txt我们也不去处理它,最简流程嘛,多一点我们都不做。
到这一步,处理素材的工作就完成了。
新建模型
处理完素材之后,下一步就是创建一个你自己的模型
打开dream booth选项卡,选择创建,给自己的模型取个名字,并且选择一个基础模型(这里可以选择一款你用着比较顺手的人像模型,如果你训练的是图片,banner等其他图片,也可以选择相应的icon,插画模型)。
顶部灰色框里的模型与本训练无关,可以不关注。
然后点击创建
训练
创建完模型之后,我们就来训练这个模型。
选项卡切换到选择,选择刚才你创建的模型,在中间的设置选项里可以勾选一个使用lora。
往下拉一些,这三个选项:
然后切换到概念tab
点击训练向导-人物,这里他会做一些预设操作,不过我们不用关心。
然后在数据集目录这里,填写我们之前输出的预处理图像out目录
到这一步,训练准备全部完成,点击训练按钮。
训练进度开始走
根据不同的显卡,整个训练过程大概在30分钟到4小时之间
当训练完成之后,你的模型这里刷新可以看到多出了test这个新的模型。
输入一些你以前准备好的人像提示词,试一下。
后记
到这里,整个训练流程就结束了,我们没有去理解任何参数的作用,是一个简单粗暴的训练教程,模型质量只能说一般,但对于想快速拥有一个个人模型的同学,是个最快的过程。如果后面想更细致的优化模型,就要细致的去了解那些参数和功能,以及插件工具了。
常见报错
xformers未安装,是最容易报的错误,网上很多安装方式对新人都不友好,最简单的处理模式,就是在启动参数的时候直接安装
在你的启动命令后面加上 --reinstall-xformers --xformers
几张产出样品
就算非常完美的模型,也不是生产的每一张图都好用的,必须通过海量生产,来选择自己满意的作品,这里附几张样品图: