深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例 ,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
沙发如何睡觉
腿疼上医院挂什么科
二类医疗器械认证下的医保争议 华为手表如何平衡医疗与消费功能?
4400亿!雷军走上神坛
社保卡怎样激活医保功能? 详细步骤及注意事项
曾被日本人视为“救星”的大和号战列舰,在冲绳岛战役中的沉没
历史照片:大和级战列舰的一生
A股退市新生态:“新陈代谢”加速 “面值退”渐成主流
A股退市新生态:“新陈代谢”加速 “面值退”渐成主流
打响0利息、0首付促销战 汽车金融公司“来势汹汹”
国内首款!CK1α分子胶蛋白降解剂抗癌新药GLB-001获批临床
追求爱情的路上,要避免哪些误区?
儋州全面推动东坡文化保护利用开发工作,擦亮东坡文化金名片
买小米,分清“黄小米”和“糯小米”,差别挺大,弄懂再买不上当
司马迁:史学之父的伟大贡献
《经济学原理》:透视经济世界的钥匙
重症肌无力能治好吗
如何分析和理解煤炭市场?这个市场有哪些趋势和风险?
煤炭全线下跌是什么现象?如何分析煤炭市场的整体趋势?
龙抬头是什么日子,有何风俗习惯
华侨城狂抛资产回血,差的要卖,好的也要卖!
奥硝唑片一次吃几片?用药指导全解析
注射用奥硝唑使用指南:适用人群、禁忌与注意事项
AI将取代40%白领类职业,跨越两条“生死线”
狂犬疫苗医保报销指南:条件、限额与咨询渠道
成年男性一天消耗多少热量?怎么计算
晚安人生感悟句子 睡前人生哲理推荐70句
盐酸除铁锈的化学方程式是什么 产生哪些现象
二手房买卖中的查册步骤及重要性
购房资格审查指南:材料准备与流程详解