激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
出纳人员的KPI应该怎么写
心电监护仪常见报警原因有哪些?如何设置参数值?有哪些小诀窍
赴港上市,顺丰加速出海?
CNV检测解析:揭开基因组变异的面纱
从特效影厅火到IP周边 《哪吒2》激活广东文化消费活力
英国房地产投资信托(REITs):投资指南与案例分析
配音演绎中的关键点:情感传达与语调把控
成都石室联合中学:依托石室中学,打造优质教育品牌
最新研究:爬楼梯可判断衰老程度,低于这个速度老得快
全球专利数量第一,中国创新是否领先美国?
Windows 10 升级快速修复
清中期的清军——从乾隆朝对外战争看清军精锐战斗力
十二时辰的由来与文化内涵:从西周到汉代的计时智慧
中心极限定理:从1733到1937,一场跨越两百年的传奇
跑步时感到精疲力竭?如何区分是“腿部疲劳”还是“心肺负荷”过大?
探秘永嘉楠溪江,山水画卷中的自然奇观与文化瑰宝
日出摄影技巧:捕捉光辉的最佳时机和角度
一文看懂杭州灵活就业社保和职工社保缴纳与退休区别?
茼蒿的营养价值与食用方法
山西乔家大院:晋商文化的瑰宝
“野山”徒步危险频发,专家建议加强应急呼叫系统建设
生地黄的药用功效和作用
显微根管治疗:口腔医疗技术的革命性突破
宝宝鼻子里总有干硬鼻屎怎么办?原因分析与应对方法
桑葚护眼又保肝?桑葚的7大健康功效、禁忌、营养一次看!
怎样才能不钻牛角尖精神内耗
眩晕症有什么症状,什么原因造成的
显微根管治疗 vs 传统根管治疗:区别、优缺点及费用详解
轮胎:汽车安全与性能的基石
草莓的水分管理技巧(浇水时间、水量、频率应该如何)