激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
探究饮用红茶对咽炎的影响:益处与注意事项全解析
李彦宏:AI浪潮中的超级应用探索与未来展望
反乌托邦叙事如何煽动现实世界的激进主义
盘点新赛季CBA最值得期待的十位新秀
乙女大战哈圈背后:女性究竟想从乙游中得到什么?
南京一小区凌晨火灾致4人身亡:已扑灭,有逃出的人咳痰都是黑色的
房地产市场新动态:政策组合拳出击,房价能否稳住?
治癫、狂、痫奇方——生铁落饮
乒乓球比赛规则详解
成都附二中医医院科普:针对小儿脾胃不适的饮食调整指南
王树增新作《天著春秋》:历史、文学与战争的交响
《西方哲学简史》◎贝克莱哲学体系
《三国演义》虚构人物大盘点
《阿飞正传》台词艺术表现特色研究
天国:拯救 2 - 玩骰子获胜策略与技巧
142857,一串神奇的数字!
神秘数字142857:探索它的数学魅力与应用
MIT科学家揭示大脑记忆机制:位置细胞与网格细胞如何协作编码记忆
美团骑手收入大曝光:一线城市月均7354元 “8万研究生送外卖”是假的
电影哲学中的悬念悖论
详解!精细木工:工作内容、考试内容、适合人群
曹彰拥兵十万为何不反曹丕?他是个怎样的人?
我国外资企业10强省份格局调整:江苏屈居第2,辽宁远超湖北
沙漠巡线兵:平凡的巡线路,亦是不凡的人生路
白洞疑现:宇宙新谜团,或颠覆我们对黑洞的认知?
如何预防胃食管反流?
德国选择党势焰直逼“防火墙”,欧盟也难免池鱼之殃?
《〈诗经〉十五讲》:讲透《诗经》中包孕的风雅中国
走进画学:从模仿到创新,构建你的绘画风格
木地板选什么材质的好?木地板材质的选购方法和技巧