激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
抗菌产品真抗菌吗?教您辨别真假,不花冤枉钱
使用Matlab Coder将Matlab文件转换为C++文件并导入项目
22种有机宝石价格排行榜:从稀有到常见,一文读懂有机宝石市场
从晚饭到睡觉,到底间隔多久才科学?
树莓派3B+使用CSI接口OV5647摄像头模块全攻略
新租赁准则的税会差异浅析
口腔溃烂:原因、治疗方法及就诊指南
利率降至“2字头”!绍兴也有多家银行响应
银行的理财产品收益计算方式的透明度如何?
win10系统桌面文件不见了,怎么恢复?六种方法,Win10文件可以恢复
大米搭配什么煮最营养
电脑充电功率怎么看?如何判断充电效率?
孙颖莎商业价值爆棚!27份代言在手,个人IP年度预测破3亿
数据说话!孙颖莎弃混双主攻单打正当时,两大原因说明更有统治力
中国绘画的散点透视:文化底蕴与艺术创新的桥梁
中国画构图法:散点透视
电脑系统更新后无法上网?网络恢复步骤详解
电脑系统更新后无法上网?网络恢复步骤详解
狗狗可以吃韭菜吗?了解韭菜对狗狗的影响与安全性
地牢猎手5
卡債債務人死亡怎麼辦?律師解析清償責任與繼承關係
昆明租房全攻略:从区域选择到入住后的注意事项
国医大家贾亚军:肠道怎么调理更健康
定期洗牙的好处和适宜频率是多少?
酸奶与益生菌:揭秘两者之间的微妙关系
古代圣旨的存档机制与历史价值
机械键盘选购全攻略:从轴体到配列,小白也能秒变行家
阿托品中毒的四个阶段
如何根据反馈及时调整简历内容
英语六级考试怎么复习