机器学习中的批量归一化(Batch Normalization)详解
创作时间:
作者:
@小白创作中心
机器学习中的批量归一化(Batch Normalization)详解
引用
CSDN
1.
https://blog.csdn.net/qq_35516428/article/details/139277713
批量归一化(Batch Normalization)是深度学习中一种常用的技术,用于加速神经网络的训练并提高模型的稳定性。本文将从概念、必要性到具体实现和优点,全面介绍这一技术。
概念简介
归一化指的是将数据缩放到一个固定范围内,通常是 [0, 1],而标准化是使得数据符合标准正态分布。归一化的作用是使不同特征具有相同的尺度,从而使模型训练更加稳定和快速,尤其是对于使用梯度下降法的算法。而标准化的作用加快模型收敛速度,提高模型的性能。
批量归一化用于加速神经网络的训练并提高模型的稳定性。它在每个批次的数据上进行标准化,通过对每层的输入进行归一化处理,使得网络中间层的激活值保持在一个较小的范围内,有助于加速模型的收敛,同时减少了梯度消失和爆炸的问题。所以批量归一化特别适合深层网络。
为什么需要归一化
例如上边这个例子,右图神经网络有两个输入,分别是从3-34和从0-1000的范围。
输入范围的巨大差异会导致在前向传播和反向传播过程中,激活函数的输出也会有很大的波动。如果激活函数是非线性的,大范围输入可能会导致梯度消失或梯度爆炸问题。
输入范围的巨大差异也会导致损失函数在不同维度上的梯度变化不一致,使得优化算法难以有效收敛。
对输入使用归一化可以缓解以上问题,但是在训练后期仍可能出现梯度消失或梯度爆炸问题。这时我们就需要使用批量归一化了。
批量归一化层
批量归一化所做的是仅标准化输入,然后将数据输入到网络中,在网络中所有层的所有输出进行标准化,也就是每层之间都有批量归一化层。它所做的就是标准化数据并做一些其他的工作,然后输出给下一层。
加入批量归一化层的优点
- 稳定和加速训练过程:归一化减少了不同层之间输入数据分布的变化。
- 减少梯度消失和爆炸问题:保持零均值和单位方差。
- 起到轻微正则化的效果:每个小批量的均值和方差略有不同,微小随机性类似于Dropout正则化。
- 降低对权重初始化的敏感性:减少了调参的难度。
- 适用于更深的神经网络:深度神经网络往往面临梯度消失或爆炸的问题。
本文原文来自CSDN
热门推荐
近视眼镜不能防护电焊!专业医生详解其中风险
煎牛排如何掌握火候和时间?
英雄联盟服务器玩家分布与社区活跃度分析
探究桑叶茶的功效与适宜人群:适合所有人饮用吗?
干耳&湿耳的助听器保养注意事项
多发性息肉是否等同于癌症?一文读懂息肉与癌症的关系
市值管理指引发布近三个月 56家上市公司相关制度落地
如何预防抑郁症复发
每周锻炼多长时间,预防抑郁症效果更佳?| 研究速递
VR在房地产行业中的变革:虚拟看房的新标准
历年青海公务员考试行测特点及命题趋势分析
15日NBA前瞻:哈登威少保罗冲击新里程碑 东契奇再战约基奇
《怪奇物语》主角自第一季以来的演变:一段连贯的旅程
年度展望:十字路口下,2025年中国医疗机构的3个关键词与5大趋势
数字化办公产品经理的主要挑战有哪些?
头部核磁共振检查全流程详解:从预约到出结果需要多久?
牙隐裂的治疗方法有哪些?如何预防牙隐裂的发生?
荣格心理学视角下的PUA:揭示情感操控的本质
跑步多久才能起到增强免疫力的作用?
央视新闻 | 筷子是餐具 又不只是餐具
涨姿势:中日韩筷子的区别
如何写项目评估管理办法
民间借贷利息纠纷怎么办?一文带你快速了解解决方案
如何进行办公空间布局设计
聚焦3.15化解防范预付式消费风险
切断网络黑话烂梗的传播链条
平足症,一种不应忽视的异常情况。
电饭煲保温温度是多少度?
如何评估企业的市场竞争力?这些评估方法有哪些局限性?
八字的基本概念及其重要性详解