回归损失和分类损失
创作时间:
作者:
@小白创作中心
回归损失和分类损失
引用
CSDN
1.
https://blog.csdn.net/Oxford1151/article/details/140273079
回归损失和分类损失是机器学习模型训练过程中常用的两类损失函数,分别适用于回归任务和分类任务。
回归损失函数
回归任务的目标是预测一个连续值,因此回归损失函数衡量预测值与真实值之间的差异。常见的回归损失函数有:
- 均方误差(Mean Squared Error, MSE)
- 计算预测值与真实值之间差的平方的平均值。
- 对于误差较大的样本,MSE 会给予更高的惩罚,因此对异常值较为敏感。
- 数学表达式:
应用场景示例:在房价预测任务中,MSE 可以帮助模型快速收敛到一个相对准确的预测值,但异常高价或低价的房屋数据可能会对模型产生较大影响。
- 均方根误差(Root Mean Squared Error, RMSE)
- 是均方误差的平方根,具有与预测值和真实值相同的单位。
- 数学表达式:
$$RMSE = \sqrt{\frac{1}{n}\sum_{i=1}^{n}(y_i - \hat{y}_i)^2}$$
应用场景示例:在天气预报中,RMSE 可以帮助评估温度预测的准确性,其单位与温度相同,便于直观理解误差大小。
- 平均绝对误差(Mean Absolute Error, MAE)
- 计算预测值与真实值之间绝对差的平均值。
- MAE 对异常值不如 MSE 敏感。
- 数学表达式:
$$MAE = \frac{1}{n}\sum_{i=1}^{n}|y_i - \hat{y}_i|$$
应用场景示例:在股票价格预测中,MAE 可以帮助模型更好地处理异常波动,避免被极端值过度影响。
- Huber损失(Huber Loss)
- 结合了MSE和MAE的优点,对异常值具有一定的鲁棒性。
- 数学表达式:
$$
HuberLoss =
\begin{cases}
\frac{1}{2}(y_i - \hat{y}_i)^2 & \text{if } |y_i - \hat{y}_i| < \delta \
\delta (|y_i - \hat{y}_i| - \frac{1}{2}\delta) & \text{otherwise}
\end{cases}
$$
应用场景示例:在自动驾驶中,Huber损失可以平衡对正常行驶数据和异常情况(如突发障碍物)的处理,提高模型的鲁棒性。
分类损失函数
分类任务的目标是预测一个类别标签,因此分类损失函数衡量预测的概率分布与真实标签分布之间的差异。常见的分类损失函数有:
- 二元交叉熵(Binary Cross-Entropy, BCE)
- 适用于二分类问题。
- 衡量真实标签与预测概率之间的差异。
- 数学表达式:
$$BCE = -\frac{1}{n}\sum_{i=1}^{n}[y_i\log(\hat{y}_i) + (1-y_i)\log(1-\hat{y}_i)]$$
应用场景示例:在垃圾邮件分类中,BCE 可以帮助模型准确区分垃圾邮件和正常邮件。
- 多元交叉熵(Categorical Cross-Entropy, CCE)
- 适用于多分类问题。
- 衡量真实标签的一个热编码与预测概率分布之间的差异。
- 数学表达式:
$$CCE = -\frac{1}{n}\sum_{i=1}^{n}\sum_{j=1}^{C}y_{ij}\log(\hat{y}_{ij})$$
应用场景示例:在图像分类任务中,CCE 可以帮助模型区分不同类别的图像。
- 稀疏分类交叉熵(Sparse Categorical Cross-Entropy, SCCE)
- 适用于多分类问题,但真实标签不是一个热编码,而是一个整数索引。
- 数学表达式与CCE相同,但真实标签是整数索引而不是一个热编码。
应用场景示例:在手写数字识别中,SCCE 可以直接处理0-9的数字标签,无需转换为one-hot编码。
- Kullback-Leibler散度(Kullback-Leibler Divergence, KL Divergence)
- 衡量两个概率分布之间的差异。
- 常用于强化学习和生成模型中。
- 数学表达式:
$$KL(P||Q) = \sum_{i}P(i)\log\left(\frac{P(i)}{Q(i)}\right)$$
其中 P是真实分布, Q是预测分布。
应用场景示例:在生成对抗网络(GAN)中,KL散度可以衡量生成的图像分布与真实图像分布之间的差异。
选择损失函数的建议
- 如果你的任务是预测连续值,选择回归损失函数,如MSE 或 MAE。
- 如果你的任务是分类,选择分类损失函数,如BCE 或 CCE。
- 具体选择哪种损失函数,还需根据任务的特点和数据的分布来确定。MSE 对异常值敏感,而 MAE 较为鲁棒;交叉熵损失函数适用于概率预测,而 KL 散度则适用于比较概率分布。
热门推荐
揭秘!四种主流手术详解,做近视手术不在困扰
建议一个克服被拒绝恐惧的好方法
英国留学Gap一年:机会与挑战
如何理解美国留学中的gap年
德化国礼瓷:中国文化的世界表达
扬声器的性能指标有哪些?
脂肪肝的预防与饮食指南:可以吃巧克力吗?
留学生考四六级吗?四六级考试对留学生有影响吗?
硝苯地平控释片天天吃,请牢记“3要2不要”,不注意或有严重后果
租赁房屋安全责任怎么划分?
为什么要详细写迎客松?
掌握面部按摩技巧,让你的肌肤紧致又光滑!
南瓜营养价值大揭秘,全家健康就靠它!
风油精的作用和功效
酗酒在老年人中呈上升趋势,这是一个危险的现象
波尔多液混配指南:安全与效能的平衡艺术?
AI走进校园,机遇与风险并存,应如何应对?
每日坚果热量大揭秘:你真的吃对了吗?
电吉他效果器使用指南:从连接到效果调节的全面解析
Word图文混排技巧:5种环绕格式+表格排版,20秒快速搞定!
走进学生心里有妙招!听听这群中学班主任的独门秘籍
钕磁铁是由什么制成的?
钕磁铁等级介绍
相机选购与摄影技巧全攻略,佳能、尼康、索尼、富士入门指南
什么是二次元:探索虚拟世界的无限魅力
闯入七零八落的中国二次元社群
洛阳深度游攻略:穿越古今的美食与文化之旅
汽车过户去哪里办手续
二手车过户后何时能拿到大绿本?
告别选择困难症:GPT与MBR之争