使用XGBoost进行单变量时间序列预测:从数据准备到模型优化
创作时间:
作者:
@小白创作中心
使用XGBoost进行单变量时间序列预测:从数据准备到模型优化
引用
CSDN
1.
https://blog.csdn.net/sinat_41858359/article/details/145704577
本文通过一个具体的案例,逐步讲解了如何使用XGBoost模型进行单变量时间序列预测。内容包括数据读取、格式转换、模型训练、预测、评估等多个环节,并配有详细的代码示例和结果展示。
一、引言
XGBoost 是一种高效的梯度提升树(Gradient Boosting Decision Tree, GBDT)算法。尽管 XGBoost 主要用于监督学习任务(如分类和回归),但通过适当的数据预处理,它也可以用于时间序列预测(Time Series Forecasting)。本文通过一个具体的案例逐步讲解XGBoost模型用于单变量时序数据预测。
二、实现过程
2.1 读取时间序列数据
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
data = pd.read_csv('data.csv')
data['Month'] = pd.to_datetime(data['Month'])
df = data
sns.set(font_scale=1.2)
plt.rc('font', family=['Times New Roman', 'SimSun'], size=12)
plt.figure()
plt.plot(df['Month'], df['Passengers'], color='b', alpha=0.6, label='Original Time Series')
plt.title('Original Time Series', fontsize=12)
plt.legend()
plt.tight_layout()
plt.show()
2.2 数据格式转换
使用滑动窗口法将时间序列数据转换为监督学习格式:
from sklearn.preprocessing import create_lag_features
df_lagged = create_lag_features(df, lags=10)
X = df_lagged.drop(columns=['Passengers'])
y = df_lagged['Passengers']
2.3 数据集划分
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=False)
print(X_train.shape, X_test.shape, y_train.shape, y_test.shape)
2.4 模型训练
from xgboost import XGBRegressor
model = XGBRegressor(objective='reg:squarederror', n_estimators=200, learning_rate=0.1, max_depth=5)
model.fit(X_train, y_train)
2.5 模型预测
y_pred = model.predict(X_test)
2.6 模型评估
from sklearn.metrics import mean_squared_error
mse = mean_squared_error(y_test, y_pred)
print(f'Mean Squared Error: {mse:.4f}')
可视化预测结果:
plt.figure()
plt.plot(y_test.values, label='Actual', color='g')
plt.plot(y_pred, label='Predicted', color='r', linestyle='dashed')
plt.title('Actual vs Predicted', fontsize=12)
plt.legend()
plt.tight_layout()
plt.show()
查看预测误差的分布情况:
plt.figure()
sns.histplot(y_test - y_pred, bins=30, kde=True, color='purple')
plt.title('Error Distribution', fontsize=12)
plt.tight_layout()
plt.show()
2.7 特征重要性分析
分析哪些滞后变量对预测最重要:
plt.figure()
feature_importance = model.feature_importances_
sns.barplot(x=X.columns, y=feature_importance, palette='viridis')
plt.title('Feature Importance', fontsize=12)
plt.xticks(X.columns, rotation=45)
plt.tight_layout()
plt.show()
2.8 参数调优
使用网格搜索进行参数调优:
from sklearn.model_selection import GridSearchCV
grid_params = {
'n_estimators': [100, 200, 500],
'max_depth': [3, 5, 7],
'learning_rate': [0.01, 0.1, 0.2]
}
grid_search = GridSearchCV(XGBRegressor(objective='reg:squarederror'), grid_params, cv=3, scoring='neg_mean_squared_error')
grid_search.fit(X_train, y_train)
print(f'Best Parameters: {grid_search.best_params_}')
热门推荐
个人博客网页设计的创新探索与实用技巧分享
误摔手机导致证据丢失?教你依法找回关键证据
也谈李政道和杨振宁之争
肌酐片与肌苷片并非同一药物,使用需谨慎
解密!原来公司都是这样监管存储员工聊天记录的!看看违法吗?
顶楼的房子好不好?建议购买吗?
多级缓存架构设计:应用案例与性能优化策略分析
如何正确拆卸雨刷器?这种操作对车辆维护有何重要性?
林冲究竟有什么功劳?为何能在梁山上排名第六位?
纳粹德国都吃些什么?揭开德意志第三帝国的饮食密码
中国夏朝考证:现代科学发现夏人下落,却与史书记载高度一致
清政府的自救——洋务运动,他的利与弊分别是什么
大相国寺景区:千年古刹的建筑艺术与佛教文化
小米粥煮多长时间?开水下米还是冷水下米?一文详解小米粥烹饪要点
天鹅湖童话故事
门外若无南北路,人间应免别离愁。
女生冬天容易手脚冰凉,原因竟是它!掌握这几招,再也不怕冷得睡不着了
饮用水水质标准 生活饮用水卫生标准
创业成功的六要素
实务卡片⑤丨消费品“以旧换新” 踩坑怎么办
人在原神:我是愚人众执行官,原神愚人众执行官揭秘:神秘执行官背后的故事
专家:多发性骨髓瘤诊疗应多学科联合“量身定制”最佳治疗方案
益生菌摄入过多会带来危害吗?详细解析与建议
面试官需注意的礼仪
她醒了!一位颅脑外伤致昏迷的年轻女子出院了
科学家发现:脂蛋白(a)和LDL-C对心血管疾病的影响是独立的
千代田之松:景天科厚叶草属小型多肉植物
如何激发销售人员的积极性
鸿运当头养殖全攻略:从寿命到开花技巧详解
太阳队球员回顾:格雷森·艾伦本赛季超出了预期,成为球队的关键