问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

Stable Diffusion模型训练教程——最简流程模式

创作时间:
作者:
@小白创作中心

Stable Diffusion模型训练教程——最简流程模式

引用
CSDN
1.
https://blog.csdn.net/weixin_55154866/article/details/141460020

Stable Diffusion是一种基于深度学习的图像生成模型,能够根据文本描述生成高质量的图像。通过训练自己的模型,用户可以根据特定需求生成具有独特风格的图像,广泛应用于艺术创作、广告设计等领域。本文将为你介绍一个最简单的Stable Diffusion模型训练流程,让你快速拥有属于自己的AI绘画模型。

在接触到Stable Diffusion人物模型之后,有些同学想训练一款属于自己的模型,但是训练工具太多,参数五花八门,让人眼花缭乱。本文就从最简单的流程上来实现一次模型训练,简单到什么程度哪?除了几个点选项之外,不用输入任何参数,连触发提示词,学习率那些难懂的参数全都不写。

训练前准备

本训练教程,默认本地或者云端机器已经安装好完整的Stable Diffusion,已经安装dreambooth扩展,并且至少有一款基础模型。

处理训练素材

既然要训练,就要准备足够的训练素材,这里建议50张清晰高质量的照片,照片最好有各个角度。我在百度下载公开的杨幂照片,如下:

格式,文件名,都关系不大,本着最简单的前提,我们现在不做任何人工处理。

然后我们打开sd的训练tab:

这里让sd为我们做一次预处理,把刚才存储杨幂照片的文件夹地址填进入(源目录),再选择一个输出文件夹(目标目录)。然后设置统一处理的宽高,我这里设置为768(你保存的图像至少要大于768*768).

下面点选 blip和deepbooru任意一个,最简训练教程不需要管他们是干嘛的。

然后点击预处理

预处理进度走完以后,右侧会显示

现在打开我们设置的输出文件夹,你会看到:

现在你应该清楚预处理都做了什么,那就是把所有图像按比例处理为768*768,并且裁切掉比例外的部分,同时生成一份图片描述txt文件。

这样就会造成有些图片被切掉了头部

这一类的照片可以选择直接删除,如果你的样品够多的话。

也可以选择手工处理下

全都处理完以后,我们的out输出文件夹里都是比较完美的样本图片了

这里的txt我们也不去处理它,最简流程嘛,多一点我们都不做。

到这一步,处理素材的工作就完成了。

新建模型

处理完素材之后,下一步就是创建一个你自己的模型

打开dream booth选项卡,选择创建,给自己的模型取个名字,并且选择一个基础模型(这里可以选择一款你用着比较顺手的人像模型,如果你训练的是图片,banner等其他图片,也可以选择相应的icon,插画模型)。

顶部灰色框里的模型与本训练无关,可以不关注。

然后点击创建

训练

创建完模型之后,我们就来训练这个模型。

选项卡切换到选择,选择刚才你创建的模型,在中间的设置选项里可以勾选一个使用lora。

往下拉一些,这三个选项:

然后切换到概念tab

点击训练向导-人物,这里他会做一些预设操作,不过我们不用关心。

然后在数据集目录这里,填写我们之前输出的预处理图像out目录

到这一步,训练准备全部完成,点击训练按钮。

训练进度开始走

根据不同的显卡,整个训练过程大概在30分钟到4小时之间

当训练完成之后,你的模型这里刷新可以看到多出了test这个新的模型。

输入一些你以前准备好的人像提示词,试一下。

后记

到这里,整个训练流程就结束了,我们没有去理解任何参数的作用,是一个简单粗暴的训练教程,模型质量只能说一般,但对于想快速拥有一个个人模型的同学,是个最快的过程。如果后面想更细致的优化模型,就要细致的去了解那些参数和功能,以及插件工具了。

常见报错

xformers未安装,是最容易报的错误,网上很多安装方式对新人都不友好,最简单的处理模式,就是在启动参数的时候直接安装

在你的启动命令后面加上 --reinstall-xformers --xformers

几张产出样品

就算非常完美的模型,也不是生产的每一张图都好用的,必须通过海量生产,来选择自己满意的作品,这里附几张样品图:

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号