【正则化技术】Label Smoothing
创作时间:
作者:
@小白创作中心
【正则化技术】Label Smoothing
引用
CSDN
1.
https://m.blog.csdn.net/a13545564067/article/details/144981615
Label Smoothing是一种在模型训练过程中常用的正则化技术,目的是避免模型过于自信地预测目标类别,从而提升模型的泛化能力。
什么是 Label Smoothing?
在分类任务中,目标是让模型输出的预测概率 P(y|x) 尽可能接近目标标签的分布(即 One-Hot 编码)。对于一个 K 类的分类问题,One-Hot 编码的目标分布是:
问题:
- 如果模型的预测概率非常接近 One-Hot 编码(即对正确类别的预测概率接近 1,其他类别接近 0),模型可能会对训练数据过拟合,对新数据的泛化性能较差。
Label Smoothing 的解决方法:
- 将目标分布从严格的 One-Hot 编码 q 平滑化为一个更“软”的分布 q’,使得对正确类别的概率不再是 1,而是略低一些,对其他类别分配少量的非零概率。
- 平滑后的目标分布:
这里:
- ϵ 是平滑参数,取值范围 0≤ϵ≤1;
- K 是类别数。
通过这种方式,目标分布会在所有类别上分配一些概率,而不是将所有概率集中在一个类别上。
Label Smoothing 的作用:
- 防止过拟合:
- 避免模型过于自信地预测某一类别,降低对训练数据的过拟合。
- 通过在目标分布中分配少量概率给其他类别,增强了模型的鲁棒性。
- 提高泛化能力:
- 在测试集或未见数据上表现更好,因为模型在训练时已经学会了更平滑的分布。
- 对抗模型的过度自信:
- 模型在预测时输出的概率分布会更加“谦逊”(例如,输出概率更接近于真实的目标分布,而不是将概率过度集中在一个类别上)。
Label Smoothing 的公式:
训练过程中,模型的损失函数(通常是交叉熵损失)被改写为基于平滑目标分布的版本:
其中:
- q′(i) 是平滑后的目标概率分布;
- P(i) 是模型的预测概率。
实际应用场景:
- 机器翻译:在 Transformer 等模型中,Label Smoothing 被广泛用于提升 BLEU 分数和泛化性能。
- 图像分类:在 ResNet 等深度卷积网络中,Label Smoothing 能提升准确率。
- 其他分类任务:任何涉及多类分类问题的任务都可以尝试引入 Label Smoothing。
选择 ϵ 的建议:
- 通常 ϵ 的值取 0.1 或接近 0.1 的小值。
- 如果 ϵ 太大(接近 1),可能导致目标分布过于平滑,模型难以有效学习。
优缺点总结:
优点:
- 简单易实现,只需调整目标分布。
- 提升模型的泛化性能,避免过拟合。
- 增强对小噪声和错误标注的鲁棒性。
缺点:
- 如果数据质量很好且标注准确,Label Smoothing 可能会使模型对标签的学习稍弱,导致收敛稍慢。
- 在小规模数据集上,过多的平滑可能会削弱模型的性能。
结论:
Label Smoothing 是一种有效的正则化技术,可以改善模型的泛化能力,尤其是在大规模分类任务中表现突出。在 Transformer 等现代 NLP 模型中,它是提升 BLEU 分数等指标的重要工具。
热门推荐
科技创新引领深海开发新突破
八段锦对高血压有用吗
怎样去除手上的皱纹
煤气中毒的原因是什么
百家争鸣:古代中国思想文化的集大成
百家争鸣的历史影响及其产生的原因
你还在过度喂养吗?宝宝吃奶后出现这5个信号,暗示他已经吃饱了
隆中对:三国鼎立的战略构想
男子向火锅内小便确有其事 涉事者或将面临法律责任
老师对学生学习的影响
英国为什么要侵略爱尔兰
迷失在翻译软件里?“Here”的中文含义远不止于此!
自适应巡航控制中的弯道速度控制功能详解
如何报销个人医疗费用?这种个人医疗报销有什么要求?
浙江大学2024年各省份录取分数线公布:最高814分,最低634分
总觉得“别人对自己有恶意”,很可能不是真的,而是你陷入了这个危机——
法硕刑法背诵七天计划:高效学习的策略与实践
北京出发全面攻略:如何乘坐各类交通工具前往四川稻城亚丁
次口径弹药:从“穿甲钻头”到“闪击利器”
中国日报看山西|陈醋香飘海外的酿造秘方
《舟话古桥》之二:中国四大古桥之卢沟桥
如何提升投影仪色彩清晰度(解决投影仪色彩模糊问题的实用方法)
亚麻酸与DHA:两位“脂肪酸明星”
古代其实有标点符号,为何不普及?统治者故意的
勇士给克莱汤普森提供的羞辱式合同被曝光,难怪直接取关离开
2024年休赛季最有性价比的合同,克莱汤普森排名第一
特50 中国古代建筑-桥 1962.10.15.
2024年用个人电脑挖矿可以赚到钱吗?
一图揭秘创新思维的源泉:和田十二法
如何完整整理文献数据库