问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

纯小白想开训lora?参数设置看这一篇就够用了

创作时间:
作者:
@小白创作中心

纯小白想开训lora?参数设置看这一篇就够用了

引用
CSDN
1.
https://m.blog.csdn.net/m0_59162248/article/details/144285707

Lora模型训练的核心参数主要分为步数相关和速率、质量相关两大类。本文将详细介绍这些参数的具体含义和调整方法,并通过实证数据和成功案例,为读者提供实用的参数设置建议。

步数相关参数

  • Image:训练集,原图质量越高,模型质量越好。
  • Repeat:学习次数。不是越高越好,太少的话模型学不透,太多可能导致模型固化,缺少天马行空的能力。
  • Epoch:循环次数。也不是学习越多、学习越久就更好,和repeat类似。
  • Batch size:数量。数值越高训练越快,但是太大会爆显存,根据自己的设备去调整。

数据集准备

训练集的准备是重中之重:

  • 尽量选择高清的图(几年前手机的前置自拍还是不要用)
  • 原图分辨率越高越好,覆盖不同光影、不同角度
  • Tag除了AI自动打标外,还要手工调整、补充
  • 并不是图片越多越好。因为图片很多的时候,可能有很多重复的,影响训练方向

关于Batch Size

  • 大的batch size训练速度快,但也会导致收敛更加慢。因为学得更加快了,有点囫囵吞枣,就导致真正学到和素材很像的过程比较慢。
  • 想要batch更大,就加大epoch数,增加学习率。

速率、质量相关参数

  • Unet lr:unet网络的学习率
  • Text encoder lr:Text编码网络的学习率
  • Optimizer:优化器方法,不同优化器适用模式不一
  • Dim:学习精度,精细度高,模型的细节更好

调整学习率

  • 通常调整unet学习率为1e-4,设置它之后会覆盖learning rate学习率的数值。
  • text_encoder的学习率通常是unet的十分之一或二分之一左右。
  • 现在主要分为32、64、128三档,选用不同的大小,最后出来的模型大小也不一样。
  • 出图精度很高的都得128往上。

优化器选择

常用优化器:AdamW8bit、DAdaptation、Lion。程序默认的是AdamW8bit。

  • DAdaptation是一个可以自动调整学习率的优化器,可以用来测试一组素材它的最优学习率是什么。
  • 使用DAdaptation时,需要把unet学习率设成1,text的学习率设成0.5,让它自动去跑,过一会就能获得一个最优学习率。接下来用AdamW8bit跑,或者Lion学习率调整为最优的1/3跑。

实证数据

不同Repeat的设置

  • 作者训练15张图,repeat设置成30,epoch为10,batch为1,居然没有学好。调整repeat到70就过拟合了。
  • 作者15张图像的repeat是5,epoch为20,batch也是1,就过拟合了。这是因为用了32的dim,而UP用的是128的dim,这个确实要花更多的时间去训练。

不同Repeat和Epoch的设置

  • 如果只学习一个epoch,但是重复学100次,它的时间居然要比前面多出半个多小时。
  • 多的epoch可以得到相对更低的loss,且比单一epoch的方案,训练更快。
  • 可以根据轮次保存多个模型的呀,所以还是不要设置太少的轮次了,不然可能错过比较好的结果。

学习率的设置

  • 高的学习率训练更快,收敛更快,在第5轮即得到了不错的模型。
  • 中间的模型可能是拟合的,后面的模型不一定是过拟合,也可能是不拟合。

成功Lora模型的参数设定

chinesedolllikeness

  • 只用了38张~repeat150,epoch为1,这是有多自信!

AESPA Karina

  • repeat只有7,比较像二次元的训练模式。

小人书连环画

  • repeat为8,epoch为20,非常标准的二次元训练参数。

AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号