数据预处理方法—数据标准化和数据归一化
创作时间:
作者:
@小白创作中心
数据预处理方法—数据标准化和数据归一化
引用
CSDN
1.
https://m.blog.csdn.net/2301_80151359/article/details/142417975
1. 数据标准化
1.1 概念
标准化是将数据转化为均值为0,标准差为1的分布。通过标准化处理,所有特征在同一个尺度上,使得模型更加稳定和高效,尤其适用于正态(高斯)分布的数据。
1.2 原理
标准化后的数据具有相同尺度,减少特征之间量纲不一致的影响,有助于提高某些机器学习算法的性能。
1.3 核心公式
标准化公式:
其中,µ 是特征的均值,σ是特征的标准差。
假设X={X1,X2,...,Xn},其均值和标准差分别为:
1.4 Python案例
创建一个包含两个特征的数据集,对数据进行标准化。
步骤:
- 创建一个随机数据集
- 对数据进行标准化
- 绘制标准化前后的数据分布直方图
- 绘制标准化前后的数据散点图
在scikit-learn中,我们可以使用sklearn.preprocessing模块中的StandardScaler类实现数据标准化。
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.preprocessing import StandardScaler
# 1. 创建一个随机数据集
np.random.seed(0)
data = np.random.rand(100, 2) * 1000
# 创建一个DataFrame
df = pd.DataFrame(data, columns=['Feature1', 'Feature2'])
# 2. 对数据进行标准化
scaler = StandardScaler()
data_standardized = scaler.fit_transform(data)
# 创建标准化后的DataFrame
df_standardized = pd.DataFrame(data_standardized, columns=['Feature1', 'Feature2'])
# 3. 绘制标准化前后的数据分布直方图
plt.figure(figsize=(12,6))
# 标准化前
plt.subplot(1,2,1)
plt.hist(df['Feature1'], bins=20, alpha=0.7, label='Feature1', color='blue')
plt.hist(df['Feature2'], bins=20, alpha=0.7, label='Feature2', color='green')
plt.title('Before Standardization')
plt.xlabel('Value')
plt.ylabel('Frequency')
plt.legend()
# 标准化后
plt.subplot(1, 2, 2)
plt.hist(df_standardized['Feature1'], bins=20, alpha=0.7, label='Feature1', color='blue')
plt.hist(df_standardized['Feature2'], bins=20, alpha=0.7, label='Feature2', color='green')
plt.title('After Standardization')
plt.xlabel('Value')
plt.ylabel('Frequency')
plt.legend()
plt.tight_layout()
plt.show()
# 4. 绘制标准化前后的数据散点图
plt.figure(figsize=(12, 6))
# 标准化前
plt.subplot(1, 2, 1)
plt.scatter(df['Feature1'], df['Feature2'], color='blue', alpha=0.7)
plt.title('Before Standardization')
plt.xlabel('Feature1')
plt.ylabel('Feature2')
# 标准化后
plt.subplot(1, 2, 2)
plt.scatter(df_standardized['Feature1'], df_standardized['Feature2'], color='red', alpha=0.7)
plt.title('After Standardization')
plt.xlabel('Feature1')
plt.ylabel('Feature2')
plt.tight_layout()
plt.show()
输出结果:
2. 数据归一化
2.1 概念
归一化是将数据缩放到特定范围(通常是[0,1]),特别适用于距离度量敏感的算法。
2.2 原理
归一化后的数据每个特征的取值范围相同,有助于提高某些机器学习算法的性能。
2.3 核心公式
归一化公式:
其中,Xmax和Xmin分别是特征的最大值和最小值。
假设X={X1,X2,...Xn},其最小值和最大值分别为:
Xmin=min(X)
Xmax=max(X)
注意:我们也可以通过公式将数据压缩到其他指定的范围[a,b]:
其中,a和b是目标范围的上下界。
2.4 Python案例
当涉及到数据预处理中的归一化,一个经典的案例就是处理不同尺度或者有明显数值差异的的特征。我们可以用鸢尾花数据集来演示。这个数据集包含了三种不同品种的鸢尾花,每种花有四个特征:花萼长度,花萼宽度,花瓣长度和花瓣宽度。
这里使用python和一些常见的数据科学库来演示归一化过程,并且展示归一化前后的数据分布情况
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.preprocessing import MinMaxScaler
# 加载鸢尾花数据集
iris = datasets.load_iris()
X = iris.data # 特征数据
# 创建MinMaxScaler对象
scaler = MinMaxScaler()
# 对数据集进行归一化
X_normalized = scaler.fit_transform(X)
# 可视化归一化前后的数据分布
fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(12, 6))
# 归一化前的数据分布
ax1.scatter(X[:,0], X[:,1], c=iris.target)
ax1.set_title('Before Normalization')
ax1.set_xlabel('Sepal Length (cm)')
ax1.set_ylabel('Sepal Width (cm)')
# 归一化后的数据分布
ax2.scatter(X_normalized[:,0], X_normalized[:,1], c=iris.target)
ax2.set_title('After Normalization')
ax2.set_xlabel('Sepal Length (normalized)')
ax2.set_ylabel('Sepal Width (normalized)')
plt.tight_layout()
plt.show()
输出结果
3. 标准化和归一化对比
标准化和归一化都能实现对数据的缩放,不过它们各自的功能以及适用场景并不一样。
热门推荐
净水器纳入国补:如何让用户需求和政策红利发挥1+1>2的作用?
SHAP可解释性与聚类分析结合的11个创新方案
“多面镜”版画展开幕,版画如何走入当代艺术语境之中
张实真论横屏短剧 VS 竖屏短剧:狭路相逢,谁更胜一筹?
杜甫名传千年的一首迎客诗,开篇便不同凡响,颔联被赞了一千多年
肝性脑病的分级
配散光眼镜的轴位是什么意思?
cea正常范围多少
生产用地的规划和利用方式是什么?这种规划和利用方式如何实施?
天津建成全国首个智慧能源小镇 成为碳中和事业排头兵
K8s集群核心组件全解析:从架构设计到最佳实践
写作指南:多角度描写人物,塑造鲜活、立体角色
牙髓病变检查方法
慢走丝线切割机加工工艺及操作技巧详解
如何高效阅读和理解学术论文
实用手册:全面诊断并修复Windows 11安全中心无法打开的问题
房产解押手续怎么办理的
新西兰留学什么专业好就业?比较哪些专业就业率高
乙肝抗病毒治疗应定期做哪些监测?
如何解决家庭经济压力?这种压力对家庭关系有何影响?
澳洲硕士留学申请是否需要实习和科研经历
选车不迷路,一文看懂不同摩托车优缺点,尤其适合新手
和滴水观音相似的植物(了解铁线莲的特点和栽培技巧)
孩子适不适合国际教育?四个方面要考虑,经济条件最重要|国际教育面面观
至阳穴:位置、功效与临床应用详解
原神枫原万叶阵容推荐及实战技巧详解
名字背后的文化密码
霍巍:从三星堆考古看中华文明起源的历史脉络
美国产研合作加速聚变下一代脉冲功率技术突破
工薪家庭能去日本留学吗?说点掏心窝子的话