深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
穿哪种颜色衣服最防晒?手把手教你选防晒产品
如何用手机检测房间内的隐藏摄像头,保护个人隐私安全?
《全域旅游:从概念到实践》
对普通上班族来说,开车的成本比你想象的高很多
眼影指甲油制作方法
键盘进水后如何正确处理?放干后还能用吗?
平凡中的不平凡:苏宜坚的人生故事
夫妻一方名下的房贷能否抵扣个税?详解婚前与婚后购房的不同情况
五红汤:传统滋补良方,补气血的月子餐首选
阿贾克斯连胜终止,法兰克福表现出色,比尔森防守堪忧
乒乓球:规则与技巧的完美结合
家庭中的角色与责任:TA沟通分析理论的应用
零基础也能学会的中医把脉入门指南
让咽鼓管疏通的小技巧
海南无证驾驶摩托车怎么处理
用子弹撞击玻璃珠反被击碎, 鲁珀特之泪问世,科学家:可制成防弹衣
泡打粉和塔塔粉的用量指南
碳酸钠是碱吗?解密常见物质的酸碱性
环保墙面底漆(墙面喷漆好还是滚涂好)
小小责任人:孩子责任感与独立性的培养之路
主动脉堵塞90%的治疗方法
道教常见的六种呼吸锻炼方式
NeuroAI:人工智能的“新脑回路”
毕福剑饭局事件始末:不当言论致央视名嘴陨落
计算机专业七大梯队院校揭秘,七大梯队院校计算机专业全解析!
幽门螺杆菌检查多久出结果
房屋更名委托他人办理的流程及注意事项
如何把握黄金买进价格的时机?这种时机选择的难点在哪里?
在德国,收入多少才能过上体面生活?
持续释放创新药发展利好:鼓励药物创新、加快新药落地