问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

机器学习模型评估指标详解:从回归到分类的全面指南

创作时间:
作者:
@小白创作中心

机器学习模型评估指标详解:从回归到分类的全面指南

引用
CSDN
1.
https://m.blog.csdn.net/2401_85280307/article/details/140104967

模型评估是机器学习中非常重要的一环,合适的评估指标能够帮助我们更好地理解模型的性能和适用场景。本文将详细介绍回归问题和分类问题的各种评估指标,包括SSE、MSE、RMSE、R Squared、召回率、精确率、混淆矩阵、P-R曲线、ROC曲线、KS曲线等。同时,本文还将介绍模型开发中数据集的划分、正负样本的选择以及概率密度评估指标等。

模型开发中的数据集划分

模型的开发基于历史数据,而模型的使用则针对未来的数据。为了模拟这种建模方式,将数据集分为三部分:训练集、验证集和测试集

  • 训练集:用来训练模型,确定模型的权值、偏置等。

  • 验证集:验证集用于模型的选择,验证集只是为了选择超参数,比如网络层数、网络节点数、迭代次数、学习率这些都叫超参数。

  • 测试集:仅仅使用于模型的评价。

  • 训练误差、经验误差:模型在训练集上的误差(即真实结果与预测结果间的差异)称为训练误差或经验误差。

  • 泛化误差:模型在验证集与测试集上的误差称为泛化误差。

而单个模型在训练集上训练希望训练误差最小,并在验证集上测试模型表现以确定单个模型的最优参数;当有多个候选模型时,需要在测试集上对比不同模型的测试表现,以选出最优的模型,一般将这个过程称为嵌套交叉验证。内层交叉验证用于模型参数优化;外层交叉验证用于模型选择即寻找最优模型。

正负样本的选择

正负样本选择,没有明确规定,根据业务进行选择。在机器学习中,往往将少数样本定义为正样本,表示希望模型在训练时更加关注少数样本。在评分卡中以少数样本为正样本,即以坏样本(违约样本)为正样本。

  • 以少数样本为正样本:即以违约样本为正样本,控制模型更加关注对坏样本的预测能力更符合业务场景,也便于应对样本不平衡的问题。业务关注对坏样本的预测能力。
  • 以多数样本为正样本:即以没有违约的为正样本,直观上好理解。评分卡的业务场景更关注坏账率和通过率。

通过率:模型判断为好样本的数量占总样本数的比例。

坏账率:模型判断为好样本中真正的坏样本所占的比例,即模型给予申请通过后实际发生逾期与整个通过样本的比例。

只要看到模型的评估指标,首先要确定正负样本的定义是什么。

回归问题的评估指标

SSE 和方差

均方误差(MSE):该统计参数是预测数据和原始数据对应点误差的平方和的均值(线性回归的损失函数)。越小越好。真实值与预测值偏差平方和的平均数

均方根误差(RMSE):RMSE虽然广为使用,但是其存在一些缺点,因为它是使用平均误差,而平均值对异常点(outliers)较敏感,如果回归器对某个点的回归值很不理性,那么它的误差则较大,从而会对RMSE的值有较大影响,即平均值是非鲁棒的。

R Squared:R2越大,模型的拟合效果越好

分类问题的评估指标

错误率

其中,I(f(x)≠y)为指示函数,如条件成立时,输出为 1,条件不成立时,结果为 0。因此,错误率就是被错分的样本数占总体样本数的比例。

召回率(查全率)

召回率衡量了在所有正例中模型正确预测的概率,召回率与漏报率相对,即召回率越高,漏报率越小。(预测为正 / 真实正例)

召回率:一共50条鱼,30草鱼,20鲤鱼,关注的是草鱼,一网打了30个,20草鱼10个鲤鱼,那么召回率就是2/5
> 宁可错杀不错过一个
漏报就是3/5,召回率越高漏报率越小
误报:预测为正例了,但其实不是,预测错了,
医疗场景诊断

精确率(查准率)

精度也称为正确率,1-错误率即为精度。在申请评分中更关心模型对坏样本的准确预测能力,坏样本对业务影响比较重要。在反欺诈应用中,更关心模型预测的欺诈用户中有多少是真实欺诈的用户。精准率衡量了所有模型预测为正例的样本中真实为正例的概率,精准率与误报率相对,即精准率越高,误报率越少 (真实正例 / 预测为正)。

混淆矩阵和分类报告

坏样本为正样本

  • TP:表示正确拒绝的样本数(坏样本要拒绝)。
  • FP:表示误报的样本数,即被错误拒绝的样本数(错的记成正的)。
  • FN:表示漏报的样本数,即被错误准入(错误的拒绝了)的样本数(正例预测成负例,好样本没有准入,正例的少了,召回的少了)(好的少了,好的记成错的)。
  • TN:正确准入的样本数。
from sklearn.neural_network import MLPClassifier
from sklearn.metrics import confusion_matrix, classification_report
print(confusion_matrix(test_Y, clf.predict(test_X))) # 混淆矩阵
print(classification_report(test_Y, clf.predict(test_X))) # 分类报告

P-R曲线

召回率和精确率是相互制约、此消彼长的。为了综合考虑召回率与精准率(P-R曲线和f1指标)。P-R:以召回率为横坐标精准率为纵坐标,绘制 P-R 曲线来比较模型的优劣。同时也可以采用平衡点来衡量,令每个分类模型的召回率与精准率相等即为该模型的BEP,BEP 越大,则模型的性能越好。

绘制PR曲线

# P-R
# plt.subplot(122)
train_precision, train_recall, _ = metrics.precision_recall_curve(y_train,
                                                                  model.predict_proba(x_train)[:, 1])  # 预测为1的概率
test_precision, test_recall, _ = metrics.precision_recall_curve(y_test, ypreba1)
plt.plot(train_recall, train_precision, color='r', linestyle='-', label='训练集P-R曲线')
plt.plot(test_recall, test_precision, color='b', linestyle=':', label='测试集P-R曲线')
plt.xlabel('Recall')
plt.ylabel('Precision')
plt.legend()
plt.ylim([0.0, 1.05])
plt.xlim([0.0, 1.0])
plt.show()

准确率

f1分值

BEP方法是P-R曲线的一种量化方法,更好的量化方法是F1指标。F1 指标综合考虑了召回率与精准率两种情况,如果希望考虑更多的召回率或精准率,则有如下的变异形式。当β=1 时,Fβ 指标蜕化为 F1 指标,此时召回率与精准率的重要程度相同;当 β>1 时召回率的影响大于精准率;

相反,当β<1 时,精准率的影响大于召回率。

标准评估指标的本质是从模型预测结果出发来度量模型性能优劣的,如分类模型从混淆矩阵中得到各种不同的性能指标回归模型直接从预测结果与真实结果的偏差角度进行分析

什么时候关注召回率,什么时候关注精确率

  • 当衡量所有正例中预测正确的概率,用召回率(所有正例预测为正)。
  • 召回率越高,漏报率越小。
  • 当衡量预测为正例中,真实为正例的概率,用精确率(预测为正实际为正)。
  • 精确率越高,误报率越小。

推荐系统更看重 精准率,宁可少推也不推错。抓捕犯罪更看重 召回率。

概率密度评估指标

概率密度曲线图

基于概率密度的评估指标其本质就是度量两个概率密度函数相互独立的可能性有多大。如图第一个分类器的性能优于第二个分类器的性能。

相对熵(K-L散度)

概率、信息量

  • 概率是表征随机变量确定性的度量。
  • 信息是随机变量不确定性的度量。
  • 信息量是信息多少的度量。
  • 熵是不确定性度量的平均值,即为信息的平均值。

信息熵

熵表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。代表着不纯度,越小事情越确定。信息量的一个加权平均。

相对熵(K-L散度)

K-L 散度是两个随机分布之间距离的度量,就是似然比的对数期望,这正是要找的衡量两个概率密度函数独立性的指标。用于衡量对于同一个随机变量x的两个分布 真实 和 预测 之间的差异。p(x)常用于描述样本的真实分布,而q(x)则常常用于表示预测的分布。KL散度的值越小表示两个分布越接近(越小越好)。然而,K-L 散度没有对称性,即 D(p||q)≠D(q||p)。既然 K- L 散度没有对称性,两个随机分布之间的 K-L 散度求和,这个求和后的距离越大,证明两个随机分布的距离越大,即独立性越好,模型的预测效果越好。因此,得到了一个具有对称性的距离,即为 K-L 距离。对称化后的 K-L 散度即 K-L 距离就是 IV 值。对于 IV 值越大,表示该变量对目标变量的预测能力就越好。因为 IV 值其本质就是 K-L 距离,在每个区间的 IV 值越大,表示在这个区间内正负样本的概率密度函数 f(p|B)与 f(p|G)的距离就越大,在该区间内变量对好坏样本的区分度就越高,而整个变量的 IV 值就是每个区间的 IV 值加和。因此,IV 值越大,该变量对好坏样本的区分度就 越强,也就是变量对目标变量的预测能力越好。因此,在变量选择阶段,IV 值可以用来选择预测能力强的变量,在模型评估中可以用来衡量不同模型的预测性能。

交叉熵

交叉熵是kl散度的一个变形。前面真实的分布是固定的,所以只看后半部行了。

概率分布评估指标

ROC曲线

纵坐标为真正率(TPR),横坐标为假正率(FPR)。

绘制方法

  • 1.对输出概率进行降序排序。
  • 2.确定阈值。
  • 3.根据阈值点计算TPR和FPR。
  • 4.苗点连线。

ROC曲线反映了排序质量的好坏,也就是预测结果的好坏(正例在前,反例在后)。ROC曲线的量化指标:AUC,就是曲线下面积,AUC值越大越好,即面积曲线下面积越大越好。AUC的取值在0.5-1之间,我们更习惯于一个取值在0-1之间的指标,这时候就有了归一化后的AUC,就是基尼系数或基尼统计量(这里的基尼系数和决策树的不同)。基尼系数(基尼统计量)是AUC的一种归一化形式。ROC反映的是整体的性能

绘制ROC曲线

# ROC
# plt.subplot(121)
fpr, tpr, threshold = metrics.roc_curve(y_test, ypreba1)  # 预测为1的概率
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('FPR')
plt.ylabel('TPR')
plt.title('ROC')
plt.plot(fpr, tpr, color='darkorange', label='AUC: %0.2f' % roc_auc_score(y_test, ypreba1))
plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--')    # x1 x2 [0, 1]  y1 y2 [0, 1]
plt.legend(loc="lower right")
plt.show()

KS曲线

提升图比较的是采用模型与不采用模型带来的改善,即采用模型后对坏样本识别能力的提升程度。

大体计算过程
概率降序排序,将概率等分为10组,分别计算每组的实际违约数,占总违约数的占比和累计占比
直方图如下

为什么呈单调递减?根据概率降序排序了,坏样本占比随着概率的降低而减少(概率越高占比越大)。即模型的预测结果与真实结果的违约情况有很好的单调关系。

提升图的另一种形式

为了直观地比较有模型判断与随机判断在识别坏样本的提升程度上的差别,可以将采用模型判断得到的每组坏样本占比随机判断每组的坏样本占比做比值,如图。

洛伦兹图(累计提升图)

将采用模型判断得到的每组累计坏样本占比随机判断每组的累计坏样本占比进行绘图。

用洛伦兹比较两个模型的性能时,也是偏左上角好(和ROC相同)

ROC的纵坐标是TPR,横坐标是FPR
这里的TPR和洛伦兹基本一致,每个组别(概率区间)的实际违约占比就是该组内的TPR
ROC的横坐标是FPR,表示对不逾期样本的误判率,洛伦兹的横坐标是分组数

所以洛伦兹曲线和ROC本质是相同的,只是横坐标表示的信息有所不同。

洛伦兹的横坐标还可以表示通过率

可以用洛伦兹曲线与随机判断对角线围城的面积A来量化模型的性能。将可提升的面积与提升的极限做比值定义为基尼系数。这里的基尼系数和AR是等价的,也是2*AUC-1。洛伦兹曲线在给定通过率后,只能得到对坏样本的识别能力。

在洛伦兹的基础上再加一条识别好样本的曲线就是KS曲线。

KS曲线

K-S曲线本质就是坏样本的洛伦兹曲线和好样本的洛伦兹曲线构成的。KS值反映了模型对好坏样本的区分能力,KS值越大表示对好坏样本的区分能力越强,最大的KS值对应的概率就是预测模型的最优阈值点。KS值越大说明模型对好坏样本的区分能力越好,模型的性能越优。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号