随机森林回归模型与特征选择实战
创作时间:
作者:
@小白创作中心
随机森林回归模型与特征选择实战
引用
CSDN
1.
https://blog.csdn.net/Mdaying/article/details/137092247
随机森林回归模型是一种基于集成学习的机器学习方法,通过构建多个决策树并综合其预测结果来提高模型的准确性和稳定性。本文将介绍如何使用随机森林回归模型和递归特征消除(RFECV)进行特征选择和预测,包括数据预处理、模型训练、特征重要性评估和结果可视化等关键步骤。
概要
在本项目中,我们探讨了如何利用随机森林回归模型和递归特征消除(RFECV)来选择特征,并预测数据集中的目标变量。这个过程涉及到数据预处理,模型训练,特征重要性评估,以及最终的结果可视化。
整体架构流程
数据处理和分析的整个流程分为几个主要部分:
- 数据清洗:处理缺失值和非数值错误。
- 特征选择:使用RFECV方法选择最重要的特征。
- 模型训练:使用随机森林回归器对数据进行拟合。
- 结果可视化:通过图形展示不同特征数量对应的模型性能。
技术名词解释
- 随机森林(Random Forest):一个由多个决策树构成的集成学习方法,用于分类和回归。
- 递归特征消除(Recursive Feature Elimination, RFECV):一种特征选择方法,通过递归减少特征量来选择最重要的特征。
- KFold:交叉验证方法之一,将数据集分成K个子集,进行多次训练和验证。
技术细节
在本代码中,我们使用了
RandomForestRegressor
作为基础估计器,并通过
RFECV
实施了特征选择。
KFold(5)
定义了5折交叉验证过程。
import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestRegressor
from sklearn.feature_selection import RFECV
from sklearn.model_selection import KFold
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
data_path = '特征变量1.csv'
data = pd.read_csv(data_path)
# 替换 '#DIV/0!' 错误为NaN,并填充缺失值
data_cleaned = data.replace('#DIV/0!', np.nan).astype(float)
data_cleaned = data_cleaned.fillna(data_cleaned.mean())
# 准备数据
X_clean = data_cleaned.drop('incident_test', axis=1)
y_clean = data_cleaned['incident_test']
# 初始化随机森林回归器
rf_regressor = RandomForestRegressor(random_state=42)
# 使用RFECV进行递归特征消除,采用KFold
rfecv_regressor = RFECV(estimator=rf_regressor, step=1, cv=KFold(5), scoring='neg_mean_squared_error', min_features_to_select=1)
rfecv_regressor.fit(X_clean, y_clean)
# 获取特征重要性并排序
feature_importances_corrected = rfecv_regressor.estimator_.feature_importances_
sorted_idx_corrected = np.argsort(feature_importances_corrected)[::-1]
# 绘制修正后的特征重要性累计贡献图
plt.figure(figsize=(10, 6))
plt.bar(range(len(feature_importances_corrected)), feature_importances_corrected[sorted_idx_corrected])
plt.xlabel('特征(排序后)')
plt.ylabel('特征重要性')
plt.title('特征重要性累计贡献图')
plt.show()
# 绘制特征累计重要性图
cumulative_importances_corrected = np.cumsum(feature_importances_corrected[sorted_idx_corrected])
plt.figure(figsize=(10, 6))
plt.plot(range(len(feature_importances_corrected)), cumulative_importances_corrected, 'b-')
plt.xlabel('特征数量(排序后)')
plt.ylabel('累计重要性')
plt.title('特征累计重要性图')
plt.hlines(y=0.95, xmin=0, xmax=len(feature_importances_corrected), color='r', linestyles='dashed')
plt.show()
# 初始化随机森林回归器
rf_regressor = RandomForestRegressor(random_state=42)
rfecv_regressor = RFECV(estimator=rf_regressor, step=1, cv=KFold(5), scoring='neg_mean_squared_error', min_features_to_select=1)
rfecv_regressor.fit(X_clean, y_clean)
cv_scores = rfecv_regressor.cv_results_['mean_test_score']
# 绘制柱状图
plt.figure(figsize=(10, 6))
plt.bar(range(1, len(cv_scores) + 1), cv_scores)
plt.xlabel('特征数量')
plt.ylabel('交叉验证得分(均方误差)')
plt.title('特征数量与模型预测精度的关系')
plt.xticks(range(1, len(cv_scores) + 1)) # 确保每个条形都有一个刻度
plt.tight_layout() # 确保中文标题显示完整
plt.show()
# 列出每个特征个数对应的特征
features_per_count = {}
for i in range(1, len(rfecv_regressor.support_) + 1):
features_per_count[i] = list(X_clean.columns[rfecv_regressor.ranking_ <= i])
print(features_per_count)
小结
热门推荐
开学季,分享小学生一周早餐做法,简单营养又快手,助力孩子成长
守护肠道健康:阿苯达唑片使用指南
已经得癌还能买百万医疗险
山东莱芜深度游攻略:市区文化探秘与自然风光之旅
如何通过自己擅长的事赚钱,用别人最需要的方式去做
Windows 11 默认应用设置指南:关联、重置、备份与恢复配置
数学的应用领域:探索数学在不同学科和行业中的应用
业绩面临挑战 药明系调整海外布局
简历邮件标题:如何撰写才能让招聘者眼前一亮?
从光影到阴影:摄影艺术中的对比美学
自动驾驶的感知革命:多传感器融合架构的技术演进与落地实践
如何构建研发团队的创新激励机制
什么是用户需求
3大姜黄素功效有哪些?姜黄早上还是晚上吃?吃法、好处一次看!
香料大战:欧洲争夺香料贸易
十种中国古代常见的食用香料盘点
在家制作炝拌干豆腐丝,体验传统美食新鲜魅力
建筑工程渗漏分析总结
宠物自动喂食器设计与制作指南
如何规划营销型网站制作步骤
如何判断是虚火还是实火
大食物观的生成逻辑、核心要义与践行路径
长江策|成为雷军眼里的小米腾飞福地,南京凭啥?
装修色彩大全与风格指南(10大风格与色系搭配)
高谱分辨率测量光学活性
行政处罚相对人是谁及其法律地位
产品需求背景如何写:从目标用户到市场机会的全面指南
如何在百度平台上有效提问获取精准答案
瑞纳油灯闪烁还有多少油?
怀孕大排畸检查是否有风险?如何减少排畸检查的风险?