SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
创作时间:
作者:
@小白创作中心
SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
引用
CSDN
1.
https://m.blog.csdn.net/weixin_44652758/article/details/139954696
在机器学习模型解释性工具中,SHAP(SHapley Additive exPlanations)是一个非常重要的库,它可以帮助我们理解模型的预测结果。在多分类任务中,使用SHAP的summary_plot函数来可视化特征重要性是一个常见的需求。然而,这个过程并不总是顺利的,本文将通过一个具体的例子来说明如何正确使用summary_plot函数。
问题背景
假设我们正在使用SVM模型对Iris数据集进行多分类任务。我们希望使用SHAP库来解释模型的预测结果,特别是每个特征对模型输出类别的重要性。以下是一个错误的代码实现:
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
错误分析
运行上述代码会报错:
Traceback (most recent call last):
File "D:\Ethan\Projects\fattyLiver\test_shap_iris.py", line 27, in <module>
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
File "D:\Ethan\Projects\fattyLiver\venv\lib\site-packages\shap\plots\_beeswarm.py", line 605, in summary_legacy
feature_names=feature_names[sort_inds],
TypeError: only integer scalar arrays can be converted to a scalar index
错误的原因在于shap_values是一个多维数组,直接传递给summary_plot函数会导致类型转换错误。
正确实现
为了正确地使用summary_plot函数,我们需要将shap_values转换为一个列表,其中每个元素是一个二维数组,表示每个类别的SHAP值。以下是正确的代码实现:
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
list_of_2d_arrays = [shap_values.values[:, :, i] for i in range(3)]
shap.summary_plot(list_of_2d_arrays, X_test, feature_names=iris.feature_names, class_names=iris.target_names)
结果展示
运行上述代码后,我们可以得到如下特征重要性图:
从图中可以看出,不同特征对不同类别的重要性存在差异。例如,花瓣长度(petal length)对类别1和类别2的区分度较高,而花瓣宽度(petal width)对所有类别的区分度都较高。
通过这个例子,我们可以看到正确使用SHAP库进行特征重要性解释的重要性。在处理多分类任务时,需要特别注意SHAP值的维度和类型,以避免出现类型转换错误。
热门推荐
新媒体运营实习经历怎么写
如何判断光伏主流组件的优劣?专家为您解答
如何识别市场上的高质量光伏主流组件
一个常见的重要指标——乳酸
新年,新猫体重计划
平行线的定义和性质
Excel图表中绘制平行线的多种方法与技巧
三峡新通道、葛洲坝扩能工程纷纷上马 “水上高速路”兴起扩容热
毛孔清洁管理项目有哪些
漫步南京老门东_必访景点推荐
读纸质书吧,你可以把它当作家人
南京2025年2月租房补贴审核结果公布!附查询指南及政策详解
猫咪耳朵发热怎么回事?可能是健康问题的信号
PyTorch安装教程:从环境配置到测试运行
可视掏耳勺儿童能用吗?家长必看的安全指南
AI时代如何保障个人隐私和数据安全
《人生得意在长安:诗说大唐》:以诗观史,以诗说唐
新凯来引爆光刻机板块!新莱应材、国风新材、冠石科技等近10家公司涨停
结核病的症状、诊断以及治疗
天渐冷,药膳养生消费正升温
爱吐舌头的宝宝:行为背后的原因与科学应对
颈7神经交叉移位术治疗中枢性肢体偏瘫:专家解读手术适应症、禁忌症与安全性
当AI遇上心理健康服务
如何与项目主任沟通交流
吉首旅游,自然之美,如诗如画
半莲花前屈膝盖疼怎么办
英国最新研究:每吸一支烟平均折寿20分钟
哪个更好:人力资源外包还是劳务派遣?
在韩国留学期间,有哪些必尝的传统美食?
淮兴泰高铁难以阻止,扬州应积极争取盐兴扬高铁规划,被动变主动