深度学习之梯度消失
创作时间:
作者:
@小白创作中心
深度学习之梯度消失
引用
CSDN
1.
https://blog.csdn.net/weixin_49146002/article/details/140309356
在深度学习中,梯度消失是指在反向传播过程中,随着网络层数增加或者在使用特定类型的激活函数(如sigmoid函数)时,梯度逐渐变小并最终趋近于零的现象。这种现象导致在更新参数时,底层网络的权重几乎不会得到有效的更新,从而使得网络在学习过程中变得非常缓慢甚至停滞不前。
以Sigmoid函数为例 ,说明梯度消失问题
Sigmoid函数的导数计算如下:
现在来看Sigmoid函数的导数在什么情况下会导致梯度消失问题:
- 导数范围:
- 对于Sigmoid函数,当输入x较大或较小时,Sigmoid函数的值接近于0或1,此时导数的乘积值范围是[ 0, 0.25 ]。这意味着,无论输入是正是负,导数的最大值都不会超过0.25。
- 反向传播中的梯度传递:
- 在一个深层的神经网络中,反向传播会通过链式法则将梯度传递回到每一层的权重。每一层的梯度都是上一层梯度和当前层激活函数导数的乘积。
- 梯度乘积效应:
- 当网络很深时,梯度会经过多个层级的乘积。由于Sigmoid函数导数的范围是[ 0, 0.25 ],这意味着每传递一层,梯度都会缩小为原来的四分之一左右。因此,随着层数的增加,梯度可能会非常快地趋近于零,尤其是在网络的初始层。
- 梯度消失影响:
- 当梯度趋近于零时,网络的底层参数几乎不会得到有效的更新,导致这些层学习到的特征变得不稳定甚至停滞不前。这会影响整个网络的训练效果,尤其是对于较深的神经网络。
因此,Sigmoid函数的导数范围较小,以及其特性使得在深层网络中容易出现梯度消失问题。为了解决这个问题,ReLU及其变种成为了更好的选择,因为它们在大多数情况下能够避免梯度消失,从而加速神经网络的训练。
热门推荐
安全培训新视角:提升意识,安全工程师必备知识分享
我国学者开发新型溶瘤病毒疗法,成功控制90%晚期癌症患者疾病进展
世界卫生组织驻华代表马丁·泰勒:精神卫生服务正值发展转型,通力合作应成为人类共识
构建心理健康支持网络,促进社会整体福祉
二手车带牌和不带牌区别
高中生高效学习三大方法:目标、内容、应用结构化详解
快充协议有几种 快充协议对照表
选择最佳公司账户:花旗银行与汇丰银行的全面对比
如何提升数据分析工作流程的效率
普通人学习思维模型,高手思考底层逻辑
无磷表面活性剂和含磷表面活性剂的主要区别在哪里?
营业厅卖纯流量卡,究竟是否合法?
餐饮行业市场分析中常用的工具和方法有哪些?
世界各国平均身高排名一览表
对比了20种猪的可食部位,最适合肾友食用的居然是它们!
猪肉补充什么营养成分
学校绩效工资自查报告:六大关键数据全解析
研究生毕业平均薪酬发布,这5大专业身价暴涨!
不还房贷的后果是什么?如何避免陷入财务困境?
想学编程去什么样的公司
东南亚青年西安求学记:实践中提升“技能值”
怎么提高短视频制作效率
物业费怎么计算?一文详解物业费计算方法与维权指南
《流放之路》高效刷金币策略全解析
专家解读:A-SMGCS环境下跟随绿灯引导功能建设方案
防盗门一般用什么材料做的,家居安全如何保障?
水中運動多樂趣 強身減壓利情緒
职场人为何需用一氧化氮呼气测定保卫呼吸健康?
如何在斋月期间实行健康的斋戒
芪蛭胶囊对动脉硬化有效果吗