深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例 ,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
跑步新发现:遵循这科学方法,健康与燃脂效果双提升!
宝藏旅行地探秘皖南明珠——安徽宣城,邂逅诗意与山水的完美融合!
外币现钞如何辨别真假
如何写雅思大作文的结尾
“清溪濬源 祖印重辉:憨山大师与南华禅寺学术研讨会”圆满举办
美国LLC与INC公司纳税大比拼:哪种公司结构更适合您的企业?
别让传统害了娃:育儿路上,这些误区要避开!
肚子咕噜咕噜的响还拉稀?可能是这些原因
一文搞懂SaaS产品定价(附7种定价模式)
从社交功能、用户群体等多个角度来看推特和脸书有哪些不同之处?
淡化痘印痘坑最有效的方法是什么
群租房认定和治理方法,保障租客权益
防洪防汛预警在线监测应用方案
信用卡跟借呗哪个利息低?综合利率、期限进行比较
英国人戴戒指的含义、戴法和意义:不同手指代表的含义及相关文化传统
武周之治:武则天在位期间的治世局面
哪些因素影响教师薪资与奖励制度的制定?
为什么需要定期调整教师薪资与奖励制度?
COC认证是什么?哪些国家需要COC认证?具体怎么办理?
自媒体博主必备工具大全:从零开始打造爆款内容
领取失业金的条件在不同地区有差异吗
小麦萌芽程度对全麦挂面食用品质的影响
香港研究生奖学金全览 | 香港大学、香港中文大学、香港科技大学、香港城市大学
不建议放生泥鳅的原因,会破坏生态平衡
“香薰”产品火了?小心,你真的可能会被熏晕!
守护未来,正确穿戴姿势儿童护腿板全指南——图解+实用建议,让孩子远离成长疼痛
机箱风道设计全攻略:高性能电脑必备指南
蜜雪冰城“隔夜鲜果”:过夜水果细菌有多少?
“免费领养宠物”真不花钱? 律师提醒领养人小心这些“坑”
0:3到4:3!山东泰山史诗级翻盘,2人主导胜利,崔康熙需要反思