激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
创作时间:
作者:
@小白创作中心
激活函数篇——Relu、Leaky ReLU、SiLU(对比计算量、内存)
引用
CSDN
1.
https://blog.csdn.net/qq_40938217/article/details/145026736
在深度学习模型优化过程中,激活函数的选择对计算效率和模型性能有着重要影响。本文将从计算量和内存使用角度,对比分析三种常用的激活函数:ReLU、Leaky ReLU和SiLU,帮助读者更好地理解它们的优缺点和适用场景。
在深度学习领域,激活函数是神经网络中不可或缺的组成部分。它们为模型引入非线性特性,使得神经网络能够学习和模拟复杂的函数映射。
ReLU
ReLU(Rectified Linear Unit)因其计算简单、在很多情况下表现较好而被广泛使用。但是,它可能会导致“神经元死亡”(即 ReLU 激活后的输出恒为0),特别是在初始化不当或学习率过大的情况下。
Leaky ReLU
Leaky ReLU可以缓解 ReLU 的一些问题,通过允许负值部分避免神经元完全“死掉”。通常取值为0.01。
SiLU
SiLU(Sigmoid Linear Unit)近年来提出的激活函数,表现出在一些任务中相较于ReLU更好的性能,尤其在深层网络中更为有效。适用于网络较深、任务较复杂时使用。
相同层不同激活函数对比(MACs、Memory)
- Relu
- SiLU
- Leaky ReLU
- 论文中SiLU和ReLU曲线对比和其导数
总结
可以看到激活函数在计算量上影响还是很大的,因为每一次卷积都会跟随一次激活函数,多次使用对整体的计算量、内存都会提升。具体如何选择我认为还是要通过实验来衡量速度与精度。
- ReLU缺点:当权重更新导致节点输出始终小于0时,该节点的梯度为零,不会再更新,导致网络部分神经元失效,所有负输入直接被置为 0,可能丢失一些重要信息
- Leaky ReLU缺点:引入了超参数 𝛼,需要手动调整其值(默认一般是 0.01),可能导致不稳定性。计算复杂度略高:相比 ReLU,多了一些系数乘法操作,但仍然较高效
- SiLU缺点:引入了 sigmoid 函数,导致计算复杂度较高。由于公式的复杂性和非单调性,不容易直观理解其输出对学习的影响。
热门推荐
厨房小妙招:保持食材新鲜
一种对膝盖友好的锻炼方式,可比跑步、跳绳轻松多了
卫生间浴霸的安装有哪些注意事项?这些注意事项如何确保安全使用?
亲戚借钱不还怎么办?有效解决方法全攻略
光学显微镜在实际应用中怎么选择合适的放大倍数
国考和省考的考试内容是一样吗?
炒虾焯水和不焯水的区别
高铁出行 乘车码能代替身份证吗?
身份证忘带或遗失怎么办?两种方法助您轻松应对
硬盘如何热插拔
安全热插拔 DC/DC 转换器
幽灵行动中最实用的载具 探索开放世界的必备神器
神奇的微纳米机器人:微观世界的“超级特工”
做结肠癌的“侦查员”,教你如何识破它!
日本留学 新闻传播专业院校推荐
挑钙片有讲究,不同人群各有注意事项
复方感冒灵颗粒有用吗?使用指南与注意事项
电影《加菲猫》深度解析:一只肥猫的成长物语
双11步入第16年:消费者态度转变,电商平台满意度分层
额窦炎应该看什么科
不容忽视的淋巴结肿大
协同处理疑难复杂案件:探索高效司法实践
教你看懂血常规报告单
Vue.js数组刷新完全指南:三种实用方法详解
“丝帛轻盈飘逸动,衣香鬓影醉心田:”论宋代服饰色彩与特点
如何设置合适的K线参数并进行有效分析?这些分析结果对投资有什么指导意义?
孕妇睡前测血糖前是否可以进食?专业医生这样建议
CPI、PPI和PMI:获得成功投资和交易策略的关键
YMCA是什么意思:一个跨越百年的青年服务组织
老君山和白云区哪个好玩,谁才是你的旅行天菜?