SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
创作时间:
作者:
@小白创作中心
SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
引用
CSDN
1.
https://m.blog.csdn.net/weixin_44652758/article/details/139954696
在机器学习模型解释性工具中,SHAP(SHapley Additive exPlanations)是一个非常重要的库,它可以帮助我们理解模型的预测结果。在多分类任务中,使用SHAP的summary_plot函数来可视化特征重要性是一个常见的需求。然而,这个过程并不总是顺利的,本文将通过一个具体的例子来说明如何正确使用summary_plot函数。
问题背景
假设我们正在使用SVM模型对Iris数据集进行多分类任务。我们希望使用SHAP库来解释模型的预测结果,特别是每个特征对模型输出类别的重要性。以下是一个错误的代码实现:
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
错误分析
运行上述代码会报错:
Traceback (most recent call last):
File "D:\Ethan\Projects\fattyLiver\test_shap_iris.py", line 27, in <module>
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
File "D:\Ethan\Projects\fattyLiver\venv\lib\site-packages\shap\plots\_beeswarm.py", line 605, in summary_legacy
feature_names=feature_names[sort_inds],
TypeError: only integer scalar arrays can be converted to a scalar index
错误的原因在于shap_values是一个多维数组,直接传递给summary_plot函数会导致类型转换错误。
正确实现
为了正确地使用summary_plot函数,我们需要将shap_values转换为一个列表,其中每个元素是一个二维数组,表示每个类别的SHAP值。以下是正确的代码实现:
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
list_of_2d_arrays = [shap_values.values[:, :, i] for i in range(3)]
shap.summary_plot(list_of_2d_arrays, X_test, feature_names=iris.feature_names, class_names=iris.target_names)
结果展示
运行上述代码后,我们可以得到如下特征重要性图:
从图中可以看出,不同特征对不同类别的重要性存在差异。例如,花瓣长度(petal length)对类别1和类别2的区分度较高,而花瓣宽度(petal width)对所有类别的区分度都较高。
通过这个例子,我们可以看到正确使用SHAP库进行特征重要性解释的重要性。在处理多分类任务时,需要特别注意SHAP值的维度和类型,以避免出现类型转换错误。
热门推荐
如何挑选优质母猪?这些要点要知道!
长期使用对身体有害?含有有害物质?关于洗洁精的真相……
银行的同业存单投资对自身资金流动性和收益性的影响?
关于痤疮,你想知道的都在这里
如何进行股票的日内交易并管理风险?这些交易策略有哪些潜在的风险和策略?
直播服务器需要哪些关键配置来保证流畅的直播体验?
2025年双春闰六月,老人说“七龙治水,四牛耕田”,明年年景咋样?
数据结构面试常见问题:什么是哈希表?它的工作原理是什么?
餐厅装饰画挂什么好?让家居风格更协调
好朋友是基因挑选出来的亲人?真的!
机器学习中有哪些方法可以提高稳定性
新媒体账号运营策略指南
炎炎夏日走哪耍?重庆推出200余场文旅活动
战胜拖延症:时间管理策略与自我激励方法
八议的具体内容及其法律适用分析
川菜大师亲授!在家也能做出正宗毛血旺
来湖南常德必吃的十大特色美食,你吃过哪几种?
冬天的甘肃,可太值得去了
AI边缘计算盒子架构选择与优势
美规汽车指的是什么
老年人脸色苍白没有血色是什么原因
数智赋能 基层减负:成效日渐显著,影响日益彰显
业绩预亏要转型? 春光药装拟更名为“春光智能”
Pendle:严重被低估的Defi新龙头
广东普宁南山英歌队:从潮汕走向世界的非遗文化
2025深圳元宵节英歌舞表演汇总
《龙之谷世界》祭司职业全方位解析:团队核心的生存法则
在我国全色弱能考驾照吗
氧化铝生产工艺、基本特性、分类及用途等内容介绍
科学制定学习计划,培养高效学习习惯