SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
创作时间:
2025-03-12 22:31:30
作者:
@小白创作中心
SHAP中使用shap.summary_plot对多分类任务模型中特征重要性绘图
引用
CSDN
1.
https://m.blog.csdn.net/weixin_44652758/article/details/139954696
在机器学习模型解释性工具中,SHAP(SHapley Additive exPlanations)是一个非常重要的库,它可以帮助我们理解模型的预测结果。在多分类任务中,使用SHAP的summary_plot
函数来可视化特征重要性是一个常见的需求。然而,这个过程并不总是顺利的,本文将通过一个具体的例子来说明如何正确使用summary_plot
函数。
问题背景
假设我们正在使用SVM模型对Iris数据集进行多分类任务。我们希望使用SHAP库来解释模型的预测结果,特别是每个特征对模型输出类别的重要性。以下是一个错误的代码实现:
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
错误分析
运行上述代码会报错:
Traceback (most recent call last):
File "D:\Ethan\Projects\fattyLiver\test_shap_iris.py", line 27, in <module>
shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names)
File "D:\Ethan\Projects\fattyLiver\venv\lib\site-packages\shap\plots\_beeswarm.py", line 605, in summary_legacy
feature_names=feature_names[sort_inds],
TypeError: only integer scalar arrays can be converted to a scalar index
错误的原因在于shap_values
是一个多维数组,直接传递给summary_plot
函数会导致类型转换错误。
正确实现
为了正确地使用summary_plot
函数,我们需要将shap_values
转换为一个列表,其中每个元素是一个二维数组,表示每个类别的SHAP值。以下是正确的代码实现:
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn import svm
import shap
# 加载数据集(这里使用iris数据集作为例子)
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化SVM模型并进行训练
clf = svm.SVC(kernel='linear', probability=True, random_state=42)
clf.fit(X_train, y_train)
# 初始化SHAP解释器
explainer = shap.Explainer(clf.predict_proba, X_train)
# 计算测试集上每个预测的SHAP值
shap_values = explainer(X_test)
# 使用summary_plot可视化特征重要性
list_of_2d_arrays = [shap_values.values[:, :, i] for i in range(3)]
shap.summary_plot(list_of_2d_arrays, X_test, feature_names=iris.feature_names, class_names=iris.target_names)
结果展示
运行上述代码后,我们可以得到如下特征重要性图:
从图中可以看出,不同特征对不同类别的重要性存在差异。例如,花瓣长度(petal length)对类别1和类别2的区分度较高,而花瓣宽度(petal width)对所有类别的区分度都较高。
通过这个例子,我们可以看到正确使用SHAP库进行特征重要性解释的重要性。在处理多分类任务时,需要特别注意SHAP值的维度和类型,以避免出现类型转换错误。
热门推荐
谈模拟医学应用于临床技能教学的体会
如何解开人工智能的限制
小区物权治理问题汇总及法律适用分析
如何解决地暖干燥的问题?这些解决方案在室内环境中有何效果?
结婚红包一般包多少:不同地区和人群的常见数额
高三学生吃什么抗疲劳增强记忆力?高考应该吃什么?
笔记本电脑常见故障及维修方法
春困怎么办?六种实用方法帮你轻松应对春困
AI技术,城市治理迈向智慧新高度
经济类纠纷找哪方面律师:解决经济争议的专业法律支持
法律知识:什么是消费者权益日?315和我们有什么关系?
清华北大录取697人!985录取3703人,北京市2024高考数据分析
走进机械艺术博物馆,感受机械与美的无限可能
【科普】测绘名词 | 什么是中央子午线?
小红书持续从严治理医美处置违规笔记50万条封禁违规账号5万个
国内学术会议如何介绍自己
掌握压枪技巧,成为战场上的高手
为何青海省一多半的人口都生活在东北角上?
电脑配置推荐:直播所需硬件清单
数控加工经验:从工序规划到过程监控的全面指南
石棉纸有毒吗?真相揭秘
Excel中如何将数据复制到筛选后的单元格
医生说的“忌辛辣”,就是不吃辣椒吗?真相是→
65岁老人血压多少正常?一文读懂血压监测与管理
留美后移民:4类H1B专业最抢手
刷短视频停不下来?真的是大脑退化了吗?
太阳能充电器使用指南:原理、优点及选购要点全解析
高磷肥适合哪些作物施肥用?
猫咪流口水原因及治疗方法解析
数据驱动的软件测试方法与策略