激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
工作压力大可能诱发甲亢,要警惕!
甲状腺功能亢进常见分型及表现
识别甲亢,从这些症状开始!
M1加兰德步枪:二战中的传奇神器
M1加兰德步枪:二战胜利的关键神器
二战神器:M1加兰德步枪的传奇
马斯克登顶全球首富:财富暴增660亿美元背后的故事
速get!和12生肖恋爱最舒服的相处方式
属鼠和属猴的婚配怎么样(幸福的秘诀)
单硝酸异山梨酯护理课件
不出国也可以去银行换美元吗?
新版美元怎么换?三种主流渠道优劣对比及注意事项全攻略
芬太尼板块暴跌:医药巨头如何应对?
简单易学!家常版凉拌黄瓜教程
从面馆服务员到春晚常客:岳云鹏的十年成名路
辣椒卤蛋教你养成健康饮食习惯
【笔记本电脑使用寿命】笔记本寿命一般几年 如何延长笔记本电脑寿命
移动硬盘长时间闲置,真的会坏吗?揭秘硬盘寿命之谜
鸡蛋辣椒卤,最佳食材怎么选?
孕期的“六吃六不吃”你了解吗?
红枣煮沸后的泡沫,真有那么神吗?
红枣煮沸冒泡的秘密,你知道多少?
红枣煮沸泡沫的秘密揭晓
路亚竿轮子怎么选?你选对了吗?
柳州螺蛳粉:柳宗元的意外惊喜
【云南民族与节日】25个云南少数民族文化、风俗与传统节日大盘点
2025石林旅游攻略_石林自由行攻略_石林出游攻略
《僵尸》VS《温暖的尸体》:东西方僵尸片的角色心理大不同
香港僵尸片:从黄金时代到文化传承
钱小豪的僵尸片传奇:从表演到文化