机器学习:数据预处理——数据清洗
创作时间:
作者:
@小白创作中心
机器学习:数据预处理——数据清洗
引用
CSDN
1.
https://m.blog.csdn.net/weixin_65047977/article/details/142035173
数据清洗是机器学习数据预处理中的关键步骤,它涉及去除重复数据、处理缺失值、统一数据格式、纠正数据错误、处理异常值等多个环节。本文通过一个矿物数据集的实例,详细介绍了数据清洗的具体步骤和Python代码实现,帮助读者更好地理解和掌握这一重要环节。
一、数据清洗
1.数据清洗是什么
数据清洗是指在数据分析过程中,对原始数据进行处理和整理的过程,以提高数据的质量和可用性。这是数据预处理中的一个关键步骤。
2.数据清洗步骤
- 去除重复数据:识别并删除重复记录。
- 处理缺失值:填补缺失值或删除包含缺失值的记录。
- 统一数据格式:统一数据格式,如日期、时间或数值单位。
- 纠正数据错误:修正数据中的错误和不一致,如拼写错误或错误的分类。
- 处理异常值:检测和处理数据中的异常值或离群点。
- 数据一致性检查:确保数据在不同数据源或表之间的一致性。
- 数据转换:将数据转换成适合分析的格式,例如归一化、编码分类变量等。
3.数据清洗示例
- 图片只截取了部分数据做演示
- 原始数据
- 经过数据清洗之后的数据
- 可以看到缺失值都进行了填充,特殊符号进行了去除,数据进行了z标准化的转换
二、数据清洗代码实现
1.完整代码
import pandas as pd
import fill_data
data = pd.read_excel('矿物数据.xls') # 导入数据
data = data[data['矿物类型'] != 'E'] # 去除数据量很少的类别
null_num = data.isnull()
# isnull() 会返回一个相同形状的DataFrame,但其中的元素是布尔值(True或False)。
# 如果原始DataFrame中的某个位置是缺失值(通常是NaN,即"Not aNumber”),
# 则对应位置在返回的DataFrame中会被标记为True;否则,标记为False。
# 注:还有空白处也是nan,isnull未包含空自处。
null_total = null_num.sum() # 检测每一列的缺失值个数
x_whole = data.iloc[:, 1:-1] # 取出特征数据
y_whole = data['矿物类型'] # 取出标签数据
# 将数据中的中文标签转换为字符
label_dict = {"A": 0, "B": 1, "C": 2, "D": 3}
encode_labels = [label_dict[label] for label in y_whole] # 将y_whole中的字母转换成数字并储存在列表里
y_whole = pd.Series(encode_labels, name='矿物类型') # 将原本的y_whole替换成encode_labels
# 数据中存在大量字符串数值、|、空格等异常数据。字符串数值直接转换为float,\和空格转换为nan
for column_name in x_whole.columns:
x_whole[column_name] = pd.to_numeric(x_whole[column_name], errors='coerce')
# pd.to_numeric()函数尝试将参数中的数据转换为数值类型。如果转换失败,它会引发一个异常
# 设置errors='coerce',会将无法转换的值设置为NaN
"""-----------------数据标准化: Z标准化-------------"""
from sklearn.preprocessing import StandardScaler
std = StandardScaler()
x_whole_z = std.fit_transform(x_whole) # 转换之后储存在矩阵里
x_whole = pd.DataFrame(x_whole_z, columns=x_whole.columns) # z标准化处理后为numpy数据,这里再转换成pandas数据
2.代码步骤解析
1.导入库和数据
初步去除异常数据:
在这份数据里,分类为E的数据只有一条,无法使用,直接去除
import pandas as pd
import fill_data
data = pd.read_excel('矿物数据.xls') # 导入数据
data = data[data['矿物类型'] != 'E'] # 去除数据量很少的类别
2.检测有无缺失值
null_num = data.isnull()
# isnull() 会返回一个相同形状的DataFrame,但其中的元素是布尔值(True或False)。
# 如果原始DataFrame中的某个位置是缺失值(通常是NaN,即"Not aNumber”),
# 则对应位置在返回的DataFrame中会被标记为True;否则,标记为False。
# 注:还有空白处也是nan,isnull未包含空自处。
null_total = null_num.sum() # 检测每一列的缺失值个数
输出:
将数据的列名和该列有多少失值存入Series类型数据
3.标签数字化
- 取出特征数据和标签数据
- 将标签数据中的字母转换成数字
x_whole = data.iloc[:, 1:-1] # 取出特征数据
y_whole = data['矿物类型'] # 取出标签数据
# 将数据中的中文标签转换为字符
label_dict = {"A": 0, "B": 1, "C": 2, "D": 3}
encode_labels = [label_dict[label] for label in y_whole] # 将y_whole中的字母转换成数字并储存在列表里
y_whole = pd.Series(encode_labels, name='矿物类型') # 将原本的y_whole替换成encode_labels
4.去除异常数据
- 将字符串类型数据转换成数值类型
- 特殊符号或者空格转换成nan
# 数据中存在大量字符串数值、|、空格等异常数据。字符串数值直接转换为float,\和空格转换为nan
for column_name in x_whole.columns:
x_whole[column_name] = pd.to_numeric(x_whole[column_name], errors='coerce')
# pd.to_numeric()函数尝试将参数中的数据转换为数值类型。如果转换失败,它会引发一个异常
# 设置errors='coerce',会将无法转换的值设置为NaN
输出:
5.标准化数据
- 将数据进行z标准化
- 得到的结果是矩阵
- 将其转换成DF表格数据
"""-----------------数据标准化: Z标准化-------------"""
from sklearn.preprocessing import StandardScaler

std = StandardScaler()
x_whole_z = std.fit_transform(x_whole) # 得到的结果是矩阵
x_whole = pd.DataFrame(x_whole_z, columns=x_whole.columns) # z标准化处理后为numpy数据,这里再转换成pandas数据
输出:
总结
至此数据清洗已经完成了大部分,剩下缺失值填充的几种方法将在下一篇进行介绍
热门推荐
地球是圆的,2300多年以前,亚里士多德是如何认识到这一点的?
巧用双层吊柜、踢脚抽:7个实用厨房设计技巧
北海至海南岛,哪种交通方式最划算?
殷墟考古百年:新馆展出近4000件文物,75%系首次面世
殷墟博物馆新馆开馆,近4000件文物见证商代文明
殷墟博物馆开馆一年迎客154万,创新展陈让商文明“活”起来
从地球、水准面、坐标系和平面地图说起
2024地球科学教案:地球形状的全面解析
200句锦旗标语大全:从医术到医德的全面赞美
深度游玩扬州:从历史名园到现代艺术的多元体验
辩证法和矛盾论的关系
扬州:瘦西湖畔赏美景,千年运河话沧桑
硬度低、价值有限,碳酸盐玉手镯难现拍卖神话
从材质到文化:解读和田玉与碳酸盐质玉的异同
《二战前线模拟器》:重返战场,改写历史
扬州盐水鹅腌制全攻略:从选材到保存的完整制作指南
束家平主讲扬州文化史,图文展配套展现古城魅力
原子弹、V2火箭和古斯塔夫巨炮:二战末期的超级武器
45-55岁是正常绝经年龄,这些变化需关注
长期服用阿司匹林肠溶片,3个危害要重视
共话中国经济新机遇丨政策发力 前景可期——海外专家认为中国政策将持续提振市场信心
奈曼旗春晚:地域文化盛宴
奈曼旗春晚评剧表演引爆传统文化热潮
区分过敏性唇炎与疱疹:嘴唇发烧的诊断与治疗指南
冬季嘴唇不适,从原因到解决方案全解析
从白粉病到蜗牛:桃金娘病虫害防治实用指南
观果赏花两相宜,桃金娘种植技术详解
2024年景区人气榜:西湖领跑,故宫、迪士尼紧随其后
油炸昆虫与傣味烧烤:西双版纳的特色美食地图
西双版纳:傣族花裙哈尼短裙,民族服饰尽显风情