问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

14.归一化——关键的数据预处理方法

创作时间:
作者:
@小白创作中心

14.归一化——关键的数据预处理方法

引用
CSDN
1.
https://m.blog.csdn.net/dxyl632956/article/details/142917085

在人工智能(AI)和机器学习中,归一化(Normalization)是一个重要的预处理步骤。它的主要目的是将数据转换到某个特定的范围。归一化可以帮助模型更高效地学习和提高预测的准确性。归一化在数据预处理方法中占据核心地位,是确保数据质量和模型性能的关键步骤。

一、归一化的概念

1.归一化(Normalization)的目的

要讲归一化,我们不可避免的要提到梯度下降。如果维度过多(超平面),我们很难将其以不同参数的关系表达出来。所以我们使用两个维度作为例子来阐述归一化前与归一化后的区别。如果拿多元线性回归距离,因为多元线性回归的损失函数MSE是凸函数,所以我们把损失函数看成一个碗,损失最小的地方就是碗底的地方(如上图所示)。

上图左是做了归一化的俯瞰图,上图右是没有做归一化的俯瞰图。

"为什么没有做归一化的俯瞰图会显示为椭圆形呢?"。为了回答这个问题,我们不妨设置一些变量用于证明。假设维度

中的每一条数据都远小于维度

中的每一条数据 ,即

。我们将表达式的截距项设为0。那么整个表达式即为

。因为我们不知道两个维度权重的大小,所以我们可以想象两部分对

的贡献是一样的,即

,又由于

,最终能得出

。所以说上右图中

的轴要比

的轴长,且俯瞰图呈椭圆形。再次思考一下,我们在梯度下降的第一步中,所有的

都是服从标准正态分布分布的,也就是初始的

是差不多的。所以我们可以得出结论:**

从 初始值到目标位置

的距离要远大于

从初始值到目标位置

,也就是调整幅度

**。

从公式的角度去推导,从梯度计算公式

中我们可以知道,梯度与样本

呈正比,所以

可以推导出

。又由于梯度下降公式

,所以我们能得出结论:**每次

的调整幅度要远小于

的调整幅度**。

根据上述的两个结论,我们可以发现, **

**的路程更短,但是步幅更长,意味着相比较

只需要用更少的迭代次数就可以收敛。而我们为了求得最优解,就必须每个维度的

都收敛才可以,所以就会出现 **

等待

**的情况。这就是右上图中

先往下走再往右走的原因。

我们使用归一化的目的就是**使得梯度下降的时候可以让不同维度的

参数都在较为接近的调整幅度上**。这就好比社会主义,先使一小部分的人富起来,使损失整体下降,最后等另一部分人富起来。但是更好的情况其实是实现共同富裕,每个人都不落下,让优化的步伐是一致的(如左上图所示)。

2.归一化(Normalization)的本质

归一化的本质是将数据转换到统一的尺度上,使得不同特征或数据点之间具有可比性,简化了数据处理的复杂性,并提高了算法的效率和稳定性。

我们现在知道了归一化的目的是让每个维度的参数共同富裕。梯度下降优化时不能达到步调一致的根本原因其实还是

的数量级不同。而归一化可以把

的数量级给它统一,扩展一点说,如果有更多特征维度,就要把各个特征维度

的数量级统一,来做到无量纲化

二、常见的归一化方法

接下来我们来介绍两种常见的归一化方法。

1.最大值最小值归一化

最大值最小值归一化(Min-Max Scaling)可以将数据映射到特定的区间,如[0,1]或[-1,1]。它的公式为:

在这个公式当中,

对应着

矩阵中第

列特征值中的最小值。同样地,

是对应

矩阵中第

列特征值中的最大值。

矩阵中第

行第

列的数值,

是归一化之后的

矩阵中第

行第

列的数值。

举个例子,比如第

列的数值是

就是 1,

就是 5,那么归一化 之后是

。如果第

列的数值是

,那么归一化之后是

从这个例子中我们可以很容易地发现,使用最大值最小值归一化的时候,优点是一定可以把数值归一化到

缺点是如果有离散值,会使一个数值为1,其它数值几乎为0,所以受到离散值的影响比较大。

2.标准归一化

通常标准归一化中包含了均值归一化方差归一化。经过处理的数据符合标准正态分布,即均值为0,标准差为1,其转化函数为:

我们也通常将其表示成:

其中

为某列样本数据的均值,

为某列样本数据的标准差。

其中

为行数,

为不同行中

的权重,这里我们可以默认将其看作是 1 。

相对于最大值最小值归一化公式计算机时除以最大值减最小值来说,标准归一化除以的是标准差,而标准差的的计算会考虑到本列样本中的所有样本数据,这样受到离群值的影响就会小很多。这就是方差归一化的好处。

那么我们为什么要减去均值呢?我们可以通过下图来看出。

下左图是梯度下降法的公式,其中

代表学习率,

代表梯度计算中的

(详情请阅读博客12.梯度下降法的具体解析——举足轻重的模型优化算法-CSDN博客)。我们可以从中看出,当

时,所有维度的梯度都是朝着一个方向前进的,因为每个维度的学习率

和误差

都是相同的,这就导致了下右图的问题。当我们想将梯度从

变为

时,维度1中的

在下降,维度2中的

在增加,这就跟我们左图所说的方法相违背。所以我们只能整体的先全部增加,再整体的全部下降,呈现出右下图三角形的另外两边,不能实现图上蓝色所示的最优路径,这样就浪费了我们很多迭代次数和时间。归其根本,还是大多数数据集的数据均为正数,所以我们减去均值,就是给梯度下降法的方向增加更多可能性,减少更多的迭代次数,这就是均值归一化的好处。

总结

本篇博客重点介绍了归一化这种数据预处理方法。希望可以对大家起到作用,谢谢。

本文原文来自CSDN

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号