激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
化脓性脑膜炎的脑脊液特征解析
春回大地,麦田呼唤——小麦春季施肥与综合管理指南
“四物不送人,儿孙人上人”:中国传统文化中的送礼禁忌
如何利用显卡刷天梯图提升游戏性能?详细解析步骤与注意事项
灌注桩泥浆比重规范要求多少
SSD扇区大小以及对ORACLE数据库影响总结
IT系统架构概述:从定义到发展趋势的全面解析
电脑椅选购指南:从使用场景到售后服务全方位解析
赖氨匹林和布洛芬可以同时使用吗
骨质疏松了,为什么用“降钙素”?把钙降低了有什么用?
古埃及建筑结构的发展史以及对当代的建筑所造成的影响
把冯唐力作《稳赢》浓缩成35句话,悟透了,人生万事可成
胃溃疡的内镜下分级与临床表现
地图如何查看卫星数据库
哪些技术能优化服装行业供应链的效率?
酒店员工工伤申报流程指引
年利率计算方法与实际应用,助力智慧财务管理新手指南
天朝田亩制度的主要内容 核心思想是什么
痴迷手工琵琶制作25年,看民间艺人如何弘扬传统文化!
消炎药饭前吃还是饭后吃?
揭秘安卓铃声存储路径与定制化设定:详细步骤与管理模式
江西发布物业服务调查报告:物业费高的小区,业主满意度更低
2025全球开发者先锋大会开幕:开源何以成为国内AI企业“破局密码”?
管型尿的临床意义有哪些
破解工厂生日福利失效困局:用数字化方案实现人均100元的暖心体验
洗钱罪名的判定标准及常见手段
全面预算管理的流程与实践:如何做到精细化管理
提升线粒体功能的四大食物!收藏
上班路上脚崴了属于工伤吗
不过户也能换车牌?车辆过户换牌全攻略