深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
黄酒春夏秋冬:四季饮用场景与秋冬健康益处
电冰箱功率大吗?家用电器耗电量解析
旧凉鞋改造指南:8种创意DIY方法让旧鞋重获新生
老年人认知障碍原因及治疗全解析
老人出现幻觉说胡话怎么回事
如何起草一份完善的外包合同?
酒精性肝病患者,戒酒后肝功能会恢复吗?
台式机如何通过网线连接路由器实现上网
成都龙泉驿赏桃花攻略:五大景点全解析
如何明确各类期货的交易成本?这些交易成本如何进行合理控制?
不同评级的期货公司在服务质量上有哪些区别?
闽南有哪些茶? 细数闽南9种乌龙茶
五毒情降:揭秘神秘仪式背后的传统文化
葡萄牙留学与移民政策解读指南
长期、低强度噪音暴露,或弄丢你的听力
如何走出女性困境?《还有明天》给出了7种可能——
水彩笔写不出来怎么办?解决各种水彩笔绘画难题的实用指南!
跷二郎腿伤腰、伤骨盆!「这个姿势」杀伤力更可怕!
跷二郎腿伤腰、伤骨盆!「这个姿势」杀伤力更可怕!
头小脑不小,数字重建改写鸟类智慧认知
从零开始讲变速箱:原理、结构与类型全解析
中原考察之旅之龙门石窟与白马寺
火电厂电气自动化解决方案
海南汽油价格走势分析
HR必读|员工辞退流程中的3大法律雷区与合规操作指南
举例说明各级别大学校长是什么行政级别?
帕金森“最有效”的治疗方式,大部分患者其实都知道?
李沆简介:北宋时期名相,以清静无为治国,注重吏事
遭遇急腹症千万别做这些,医生提醒要特别注意!
电瓶车载人合法吗?相关规定和安全指南是什么?