激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
广电卡激活问题有哪些?
什么是椰子油(Coconut Oil)?
椰子油:作用与用法,一文带你了解!
椰子油可以减脂和燃脂?营养师说椰子油造成心血管疾病风险比猪油还恐怖
这种被“吹上天”的油,功效真的那么好吗?答案在这里!
椰子油护肤的正确方法,5个步骤让椰子油发挥最佳效果
凤牌滇红经典58:65年传奇,一杯好茶的坚守
夏季避暑指南:如何科学应对高温
高温天如何防暑降温?丨健康总动员
“上海为何如此炎热?深度解析高温背后的真相”
杭州旅游住宿攻略:5个区域各具特色,总有一款适合你
复旦大学研究揭示:航空流量是流感全球传播的关键驱动因素
春节自驾游攻略:石林到昆明滇池
石林滇池两日游,打卡网红景点!
自驾游昆明,探秘石林与滇池的绝美风光
昆明石林与滇池的冬日美景:温暖阳光下的旅游天堂
按ctrl+z把文件弄丢了怎么办?分享5种恢复方法
骑行——便利、有效的减肥方式
呼和浩特五大必去景点:从博物院到草原公园,感受内蒙之美
四季之美,装修设计中的自然灵感与教学实践
关于四季的古诗:流转的时光与诗意的表达
岁寒三友,坚韧不屈的自然哲理与人生象征
红烧鱼红烧鱼
高尿酸血症患者必看:这些饮料要少碰
高果糖饮料竟是尿酸升高的罪魁祸首?
NASA采用VR技术培训宇航员,助力月球"门户"空间站建设
重新构想太空探索:NASA 如何利用虚拟现实进行任务模拟
贵州千户苗寨深度游攻略:文化与自然的完美融合之旅
贵州折耳根:从“最难吃”到“新宠”,解锁年轻人味蕾
吃货必备!揭秘扣肉的美味秘诀