深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
《蛟龙行动》片场趣事:黄轩、韩东君、于适的欢乐日常
《蛟龙行动》揭秘:反鱼雷鱼雷如何改变未来水下战场?
元旦春节临近,物价走势如何?
中国运动品牌出海,还有机会吗?
绿松石耳环:这些人群真的不能戴!
绿松石:十二月诞生石的心理魔力
龙山至来凤必打卡:世界罕见的卯洞风景区
空调压缩机维修故障排查和解决方法
普通感冒的症状三个阶段
国樽律师解读:网络环境下版权保护新策略
腰椎间盘突出怎么办?这些动作能做,这些动作不能做
大S离世后,汪小菲与张颖颖评论区为何如此和谐?
张兰直播间被封:大S去世言论引争议
犁桥水镇:火出圈的江南水乡网红打卡地
春游犁桥水镇正当时!14.4万游客的选择不会错
犁桥水镇:寓教于乐的亲子游胜地
铜陵犁桥水镇:梦里水乡里的诗画世界
吉隆坡3天行程:探索城市必游景点
南昌汉代海昏侯国遗址博物馆:17件新修复漆木器亮相,展现西汉工艺魅力
南昌汉代海昏侯遗址博物馆:科技带你穿越西汉!
狗狗生日派对:萌宠大作战!
芜湖蓝义兴:百年吊炉烤鸭的传承与创新
古代结婚是五礼中的嘉礼
法院版:借条、欠条、收条(范本)
顺承郡王府—清代王府之八
南翔古镇:建筑与园林艺术的千年传承
2025乌镇新玩法:冬日限定活动+新晋网红打卡点全攻略
中国十大古镇榜单:江南水乡探秘之旅
茶峒古镇:逃离都市喧嚣,享受宁静慢生活
藕粉养胃宝典:医生告诉你如何吃得明白