问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

常见模型评价标准

创作时间:
作者:
@小白创作中心

常见模型评价标准

引用
CSDN
1.
https://blog.csdn.net/qq_35229591/article/details/143057907

前言

在机器学习和数据科学中,模型的性能评估是至关重要的环节。不同的应用场景可能需要不同的评价指标,以确保模型的预测能力符合实际需求。本篇文档旨在介绍几种常用的模型评价标准,包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)以及F1_Score。通过了解这些指标的定义和应用场景,我们可以更好地选择合适的指标来评估和优化模型,避免因数据集不平衡或其他因素导致的误导性结论。

模型评价标准


图片来源:https://en.wikipedia.org/wiki/Precision_and_recall

缩写含义:

  • TP: True Positive
  • TN: True Negative
  • FP: False Positive
  • FN: False Negative

Accuracy(准确率)

是指分类器正确分类的样本数量与总样本数量的比例

$$Accuracy=\frac{TP+TN}{TP+TN+FP+FN}$$

Accuracy 对于不平衡数据集可能是一个误导性的指标。考虑一个样本,其中有95个负值和5个正值。在这种情况下,将所有值分类为负值会得到0.95的准确率分数。

有许多指标不会受到这个问题的影响。例如,平衡准确率(bACC)通过分别将真正例和真反例的预测值除以正负样本的数量,并将它们的和除以2来进行规范化:

$$Balanced \ accuracy=\frac{TPR+TNR}{2} \ TPR=\frac{TP}{TP+FN} \ TNR=\frac{TN}{TN+FP}$$

对于之前的例子(95个负样本和5个正样本),将所有样本都分类为负样本得到的平衡准确率得分为0.5(最大bACC得分为1),这相当于在平衡数据集中随机猜测的期望值。平衡准确率可以作为一个模型的整体性能指标,无论真实标签在数据中是否不平衡,假设FN的代价与FP相同。

Precision(精确率)

是指分类器预测为正例的样本中真正为正例的样本数占预测为正例的样本数的比例。

$$Precision=\frac{TP}{TP+FP}$$

Recall(召回率)

是指分类器预测为正例的样本中真正为正例的样本数占实际为正例的样本数的比例。

$$Recall=\frac{TP}{TP+FN}$$

$$Recall = TPR$$

F1 Score

传统的 F-measure 或平衡 F-score(F1 分数)是精确率和召回率的调和平均值:

$$F_{1}=2 \times \frac{precision \times recall}{precision+recall}$$

问: Accuracy、Precision、Recall 一样吗?

不一样。

Accuracy 表示分类器总体的分类准确度,而 Precision 和 Recall 则分别强调分类器在预测正例时的准确性和分类器对真正例的识别能力。在不同场景下,优化的目标也不同。例如,在垃圾邮件分类中(P=垃圾邮件,N=正常邮件),我们更关心 Precision,因为误判一封正常邮件为垃圾邮件的代价更高。而在新冠检测中(P=阳性,N=健康),我们更关心 Recall,因为漏诊一位患者的代价更高。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号