深度学习中的学习率调整:从理论到实践
深度学习中的学习率调整:从理论到实践
在深度学习模型训练过程中,学习率的调整是一个至关重要的环节。合理的调整策略不仅能优化训练速度,提高训练稳定性,还能帮助模型更好地适应不同训练阶段,最终提升模型性能。本文将详细介绍学习率的定义、作用以及具体的调整方法,包括使用PyTorch库函数和手动调整两种方式。
一、学习率的定义与作用
学习率(Learning Rate),也称为步长,是深度学习中控制参数更新步长的一个超参数。在每一次迭代中,学习率决定了基于损失函数梯度的参数更新幅度。它决定了模型在优化过程中向损失函数最优解移动的步长大小。
学习率的作用主要体现在以下几个方面:
- 控制参数更新的步长:学习率直接决定了在每次迭代中,参数根据梯度调整的幅度。过大的学习率可能导致参数更新幅度过大,从而在最优解附近震荡甚至发散;而过小的学习率则可能导致收敛速度过慢。
- 平衡速度与稳定性:合理的学习率需要在保证模型稳定收敛的同时,尽可能提高训练速度。过高的学习率可能导致模型训练不稳定,而过低的学习率则可能使训练过程过于缓慢。
选择合适的学习率对于训练一个高性能的深度学习模型至关重要。过高的学习率可能导致模型发散或震荡,而过低的学习率则可能使训练过程过于缓慢甚至无法收敛到最优解。因此,我们需要对学习率进行调整。
二、学习率调整方法
调整学习率主要有两种方法:使用库函数进行调整和手动调整。
1. 使用库函数进行调整
PyTorch提供了丰富的学习率调整策略,主要通过torch.optim.lr_scheduler
接口实现。具体包括三种调整方法:有序调整、自适应调整以及自定义调整。
有序调整
有序调整方法包括等间隔调整(Step)、多间隔调整(MultiStep)、指数衰减(Exponential)和余弦退火(CosineAnnealing)。
- 等间隔调整(Step):
等间隔调整学习率是一种简单直接的方法,它按照预定的间隔(通常是epoch数)来调整学习率。每次调整时,学习率会乘以一个预设的衰减因子(gamma)。这种方法适合于训练过程较为稳定,且需要逐步减小学习率以避免过拟合的场景。
torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1)
参数:
optimizer: 神经网络训练中使用的优化器,如optimizer=torch.optim.Adam(…)
step_size(int): 学习率下降间隔数,单位是epoch,而不是iteration.
gamma(float):学习率调整倍数,默认为0.1
每训练step_size个epoch,学习率调整为lr=lr*gamma.
代码体现:
注意:在每个epochs迭代训练时,使用scheduler.step()语句进行学习率更新。
optimizer = torch.optim.Adam(model.parameters(),lr=0.001,weight_decay=0.0001)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer,step_size=5,gamma=0.5)
epochs = 80
train_dataloader = DataLoader(training_data,batch_size=64,shuffle=True)
test_dataloader = DataLoader(test_data,batch_size=64,shuffle=True)
for t in range(epochs):
print(f"Epoch {t+1} \n-------------------------")
train(train_dataloader,model,loss_fn,optimizer)
test(test_dataloader,model,loss_fn)
scheduler.step()
- 多间隔调整(MultiStep):
与Step方法类似,但可以在多个预设的epoch点进行学习率衰减,每个点可以有不同的衰减比例。这种方法提供了更多的灵活性来适应复杂的训练过程。
torch.optim.lr_shceduler.MultiStepLR(optimizer, milestones, gamma=0.1)
参数:
milestone(list): 一个列表参数,表示多个学习率需要调整的epoch值,如milestones=[10, 30, 80].
- 指数衰减(Exponential):
学习率按照指数形式进行衰减,衰减速度由衰减率(gamma)控制。这种方法适用于模型训练初期需要较大学习率以快速收敛,后期需要较小学习率以微调模型参数的情况。
torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma)
参数:
gamma(float):学习率调整倍数的底数,指数为epoch,初始值我lr, 倍数为γ的epoch次方
- 余弦退火(CosineAnnealing):
学习率按照余弦函数进行周期性调整,先下降后上升,形成多个学习率的波峰和波谷。这种方法有助于模型跳出局部最优解,探索更广阔的参数空间。
torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0)
参数:
Tmax(int):学习率下降到最小值时的epoch数,即当epoch=T_max时,学习率下降到余弦函数最小值,当epoch>T_max时,学习率将增大;
etamin: 学习率调整的最小值,即epoch=Tmax时,lrmin=etamin, 默认为0.
自适应调整
自适应调整方法通过监测某个指标的变化情况(loss、accuracy),当该指标不怎么变化时,就是调整学习率的时机(ReduceLROnPlateau)。
torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1,
patience=10,verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)
-- optimizer (Optimizer): 要调整学习率的优化器(如 SGD, Adam 等)。
-- mode (str, 可选): 指定触发学习率减少的条件。'min' 模式意味着当指标停止下降时减少学习率(即,当指标达到局部最小值时)。'max' 模式则意味着当指标停止上升时减少学习率。默认值为 'min'。
-- factor (float, 可选): 学习率减少的因子。新的学习率将是旧学习率乘以这个因子。默认值为 0.1。
-- patience (int, 可选): 容忍多少个 epoch 指标没有改善后减少学习率。例如,如果 patience=10,则指标在 10 个 epoch 内没有改善后,学习率将被减少。默认值为 10。
-- verbose (bool, 可选): 如果为 True,则在每次更新学习率时打印一条消息。默认值为 False。
-- threshold (float, 可选): 阈值,用于判断指标是否“真正”没有改善。只有当指标的变化小于这个阈值时,才认为指标没有改善。这有助于避免由于指标的小幅波动而频繁调整学习率。默认值为 1e-4。
-- threshold_mode (str, 可选): 阈值的比较模式。'rel' 表示相对模式,即阈值是相对于当前最佳指标的百分比;'abs' 表示绝对模式,即阈值是绝对数值。默认值为 'rel'。
-- cooldown (int, 可选): 在学习率被减少之后,等待多少个 epoch 再重新考虑是否减少学习率。这有助于在减少学习率后给模型一些时间来适应新的学习率。默认值为 0,表示不等待。
-- min_lr (float 或 list, 可选): 学习率的最小值。如果为单个浮点数,则所有参数组的学习率都不会低于这个值。如果为列表,则每个参数组的学习率都不会低于列表中对应位置的值。默认值为 0。
-- eps (float, 可选): 用于提高数值稳定性的小常数。当两个指标值非常接近时,它有助于避免除以零的错误。默认值为 1e-8。
自定义调整
通过自定义关于epoch的lambda函数调整学习率(LambdaLR)。
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda)
参数:
lr_lambda(function or list): 自定义计算学习率调整倍数的函数,通常时epoch的函数,当有多个参数组时,设为list.
2. 手动调整学习率
手动调整学习率通常涉及在训练循环中定期检查模型的性能(如验证集上的损失或准确率),并根据这些性能指标来更新学习率。
比如:
# 训练循环
for epoch in range(num_epochs):
# 训练模型(省略具体代码)
train(model, optimizer, train_loader)
# 评估模型在验证集上的性能(省略具体代码)
val_loss = validate(model, val_loader)
# 根据验证集损失手动调整学习率
# 这里只是一个简单的示例,实际中你可能需要更复杂的逻辑
if epoch % 10 == 0: # 每10个epoch检查一次
if val_loss < best_val_loss: # 假设best_val_loss在循环外初始化
best_val_loss = val_loss
else:
# 如果验证损失没有改善,则减少学习率
for param_group in optimizer.param_groups:
param_group['lr'] *= 0.1 # 将学习率乘以0.1
通过验证集损失,来调整学习率。
总结
本文介绍了深度学习中学习率调整的重要性和具体实现方法。通过调整学习率,可以优化训练速度、提高训练稳定性、适应不同的训练阶段以及改善模型性能。具体调整方法包括使用库函数(有序调整、自适应调整、自定义调整)和手动调整两种方式。在使用库函数时,需要注意在每个epochs迭代训练时使用scheduler.step()
语句进行学习率更新。