KNN与交叉验证(基础知识 + 实战代码)
创作时间:
作者:
@小白创作中心
KNN与交叉验证(基础知识 + 实战代码)
引用
CSDN
1.
https://blog.csdn.net/2301_79327545/article/details/140302026
KNN
近朱者赤,近墨者黑
既可以解决分类问题,也可以解决回归问题
- 回归问题:求出k个待测样本的平均值作为预测样本最终的预测值
1 样本距离公式
欧拉距离
两个样本对应特征值之差的平方的累加和再开根号
哈曼顿距离
两个样本对应特征值之差的累加和
明可夫斯基距离(p是一个超参数)
超参数:p是在计算前就已经设定好的数
2 特征标准化距离
避免了样本间距离一直被某些数值较大的特征所主导的问题。
z-score标准化
- s:标准差
- xmean:特征值的平均值
sklearn.preprocessing.StandardScaler
实战:
fit:只对样本训练集进行
交叉验证
- 将数据集切分成三部分:训练集、验证集、测试集
- 训练集:训练模型
- 验证集:用于模型的选择
- 测试集:最终评估
1 K折交叉验证
- 切分训练集:将训练数据集切分为k个互不相交的大小相同的子集
- 训练模型:用其中k-1个子集
- 验证模型:用余下的子集
- 将这一过程对可能的k中选择重复进行(这一过程使用的是同一组超参数)
- 计算交叉验证误差:计算k次的预测误差并对其求平均值。
在这个过程中要多试几组超参数,最后选择成绩最好的去测试数据。
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier # KNN分类器
# 数据加载,展示图像
digits = datasets.load_digits()
X = digits.data #样本特征
y = digits.target #样本标签
# 拆分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=666)
# 交叉验证开始
from sklearn.model_selection import cross_val_score
best_k, best_p, best_score = 0, 0, 0
for k in range(2, 11): # 外层搜索k
for p in range(1, 6): # 内层搜索p
knn = KNeighborsClassifier(weights="distance", n_neighbors=k, p=p)
scores = cross_val_score(knn, X_train, y_train, cv=3, scoring='accuracy') # 3折交叉验证
score = np.mean(scores) # 当前这一组超参数在验证集上的平均得分
if score > best_score:
best_k, best_p, best_score = k, p, score
print("best_k=",best_k)
print("best_p=",best_p)
print("验证集上最好成绩:best_score=",best_score)
# 使用调好的超参数进行训练与测试
best_knn = KNeighborsClassifier(weights="distance", n_neighbors=2, p=2)
best_knn.fit(X_train, y_train)
best_knn.score(X_test, y_test) # 测试集上最终的分数
2 留一交叉验证
留一法:是K折交叉验证的特殊情形,即K=N,这里N是给定训练数据集的容量。
留一法不受随机样本划分方式的影响,最接近模型真正的性能指标。因为N个样本只有唯一的方式划分为N个子集——每个子集包含一个样本。
缺点:计算量巨大。经常在科研中使用。
3 实战:网格搜索调参
- 网格搜索?
- 网格搜索可以实现自动调参并返回最佳的参数组合
- 网格搜索,搜索的是参数,即在指定的参数范围内,依次调整参数,利用调整的参数训练学习器
- 底层还是用到了交叉搜索
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
# 加载数据集
digits = datasets.load_digits()
X = digits.data # 样本特征
y = digits.target # 样本标签
# 拆分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=666)
# 网格搜索
from sklearn.model_selection import GridSearchCV
# 组装待搜索的超参数
param_grid = [
{
"weights":["uniform"],
"n_neighbors":[i for i in range(1,11)],
},
{
"weights":["distance"],
"n_neighbors":[i for i in range(1,11)],
"p":[i for i in range(1,6)]
}
]
knn = KNeighborsClassifier()
grid_search = GridSearchCV(knn,param_grid,cv=3,n_jobs=1) # cv=3表示3折交叉验证 n_jobs=-1表示使用全部核
grid_search.fit(X_train,y_train) # 开始搜索, 搜索最佳超参数(很耗时!)
# print(grid_search.best_params_) # 输出最优超参数组合
# print(grid_search.best_score_) # 输出验证最佳成绩
# 携带最佳超参数组合的KNeighborsClassifier对象
best_knn = grid_search.best_estimator_
best_knn.fit(X_train, y_train) # 使用最佳超参数组合的分类器进行拟合训练
print("在测试集上最后总评估效果:",best_knn.score(X_test, y_test))
热门推荐
侧柏叶:秋季养生良药,抗菌消炎又止咳
Poetry2Image:专为中文古诗词图像生成,忠于原诗意境和语义
山间诗意,古韵流长:探寻中国古代诗歌中的山林意境
牙痛自救指南:用药、护理和就医时机
牙痛停滴丸怎么吃?2丸3次,这些禁忌要当心
元旦打卡塞班岛潜水胜地
银行存钱怎么存最划算?一文教你如何优化存款收益
贡木龙鳞手串:稀世珍品的文化传承与收藏价值
从抽象到证明:提升计算机科学数学思维的完整指南
父母培训班:家庭教育的新趋势
杨娟教你应对父母干涉婚姻:沟通、自立与理解
四管六不管,教你建立健康的亲子边界
从6369到13000:三门峡生态环境持续向好
三门峡打造生态警务新模式,吸引万余只白天鹅越冬
赏天鹅、品美食、住酒店:三门峡天鹅湖冬季旅游全攻略
冬季洗澡四大误区+三大禁忌,这样洗才健康
医生提醒:冬季洗澡不当易引发心梗,这些细节要注意
温差过大易致热休克,医生提醒冬季洗浴注意事项
高血压老人洗澡身亡,医生:冷水刺激是致命因素
侧柏叶:冬季养生的全能药材,六大功效助力健康过冬
从防风固沙到入药染色:侧柏树的五大价值全解析
黄道十二宫:揭秘十二星座的独特魅力与性格特征

莫高窟壁画惊现十二星座!网友:十二星座到底起源于西方还是中国?
香蕉缓解牙疼?营养师:这些成分确实有帮助
牙疼应急指南:8种家庭护理方法及就医提醒
中医食疗治牙疼:绿豆甘草汤等7种家庭疗法
三门峡市举办万人徒步活动,展现户外运动魅力
CPU升级攻略:避开Intel 13/14代陷阱,打造稳定游戏与工作平台
广东省内自驾游最佳路线推荐
探寻阳江市旅游胜地,感受广东独特风情