Transformer参数量和复杂度
创作时间:
作者:
@小白创作中心
Transformer参数量和复杂度
引用
CSDN
1.
https://blog.csdn.net/qq_45978862/article/details/141759507
在算法岗面试中经常会问到Transformer相关的基础知识。
首先需要清楚Transformer的参数量和复杂度分别在算什么。
定义:
- 参数量:神经网络中有很多参数矩阵,这个矩阵大小的和就是参数量,静态的,摆在那就在那,定量的。
- 复杂度:与输入的数据有关,动态的,跟计算公式有关,定性的。
Transformer的架构主要分成2部分: - Encoder:6层,每层包括 Multi-Head Self-Attention(MHSA)和FFN
- Decoder:6层,每层包括Masked MHSA、Multi-Head Cross-Attention和FFN
其他部分包括Input Embedding 、Postion Encoding以及最后解码的Linear层。
其中,每个MHSA、Masked MHSA、Multi-Head Cross-Attention和FFN中有含有Add&Norm操作。
参数量计算:
InputEmbedding:将vocab中的词映射到d维度,所以: vocab*d
Encoder+Decoder:
- MHSA/Multi-Head Cross-Attention/Masked MHSA:Q K V O 四个矩阵 【没有bias】
4 ∗ d ∗ d = 4 d 2 4dd=4d^24∗d∗d=4d2 - FFN :第一个矩阵先增到4d,第二个矩阵减到d。所以参数量为
d ∗ ( 4 d ) + 4 ∗ d + ( 4 ∗ d ) ∗ d + d = 8 d 2 + 5 d d*(4d) +4d + (4d)*d +d= 8d^2+5dd∗(4d)+4∗d+(4∗d)∗d+d=8d2+5d - layerNorm : 参数量就是γ \gammaγ和β \betaβ,所以是 2d
其实可以看到,MHSA的参数量仅有 FFNN 的一半。
T o t a l = I n p u t E m b e d d i n g + E n c o d e r + D e c o d e r = v o c a b ∗ d + 6 ∗ ( 4 d 2 + 2 d + 8 d 2 + 5 d + 2 d ) + 6 ( 4 d 2 + 2 d + 4 d 2 + 2 d + 8 d 2 + 5 d + 2 d ) = v o c a b ∗ d + 6 ∗ ( 12 d 2 + 9 d ) + 6 ∗ ( 16 d 2 + 11 d ) = v o c a b ∗ d + 168 d 2 + 120 d Total = InputEmbedding + Encoder + Decoder \ = vocabd + 6( 4d^2 + 2d + 8d^2+5d + 2d) + 6(4d^2 + 2d + 4d^2 + 2d + 8d^2+5d + 2d)\ = vocabd + 6(12d^2+9d ) + 6*(16d^2+11d) \ = vocab*d + 168d^2 + 120dTotal=InputEmbedding+Encoder+Decoder=vocab∗d+6∗(4d2+2d+8d2+5d+2d)+6(4d2+2d+4d2+2d+8d2+5d+2d)=vocab∗d+6∗(12d2+9d)+6∗(16d2+11d)=vocab∗d+168d2+120d
复杂度分析
复杂度分成时间复杂度和空间复杂度。
神经网络中,最常见的就是线性映射,涉及到矩阵运算。这里用到一个矩阵相乘运算复杂度的前置知识:
矩阵M1=m * n 矩阵M2=n * k,得到矩阵M=m * k,所以时间复杂度为O(mnk),空间复杂度为O(m*k)
假设输入序列长度为N
InputEmbedding:将vocab中的词映射到d维度,类似检索哈希表。
时间复杂度:O(N)
空间复杂度:O(N*d)
Encoder+Decoder:
- MHSA/Multi-Head Cross-Attention/Masked MHSA:
attention计算是复杂度的关键。
时间复杂度:O ( N 2 d ) O(N^2d)O(N2d)
self-attention中计算attention score那里就是
●Q ∗ K T QK^TQ∗KT是O ( N ∗ d ∗ N ) = O ( N 2 d ) O(NdN)=O(N^2d)O(N∗d∗N)=O(N2d);
● 让s c o r e s = s o f t m a x ( Q ∗ K T / d ) scores=softmax(QK^T/\sqrt{d})scores=softmax(Q∗KT/d )那么s c o r e s ∗ V scoresVscores∗V是O ( N 2 d ) O(N^2d)O(N2d);
空间复杂度:O ( N 2 + N d ) O(N^2+Nd)O(N2+Nd)
●Q ∗ K T QK^TQ∗KT是O ( N 2 ) O(N^2)O(N2);
●s c o r e s ∗ V scores*Vscores∗V是O ( N d ) O(Nd)O(Nd); - FFN :第一个矩阵先增到4d,第二个矩阵减到d。
时间复杂度:O ( N ∗ d ∗ 4 d ) = O ( N d 2 ) O(Nd 4d) =O(Nd^2)O(N∗d∗4d)=O(Nd2)
空间复杂度:O ( N d ) O(Nd)O(Nd)
所以:
时间复杂度:O ( N 2 d + N d 2 ) O(N^2d+Nd^2)O(N2d+Nd2)
空间复杂度:O ( N 2 + N d ) O(N^2+Nd)O(N2+Nd)
通常把d作为常量,所以:
时间复杂度:O ( N 2 ) O(N^2)O(N2)
空间复杂度:O ( N 2 ) O(N^2)O(N2)
参考:https://zhuanlan.zhihu.com/p/661804092
热门推荐
文创产品设计中的故事性与文化价值
金雀花帝国:中世纪西欧的“政治怪物”
PS5 Pro全球市场之艰:性能惊艳,黄牛遇挫
脂漏性皮炎饮食指南:饮食禁忌、保健食品推荐
校园楼道文化墙设计:打造富有特色的校园文化空间
链上体验游戏化:将有趣作为 KPI,才能吸引更多人
韩语基础入门教程全集:零基础也能轻松掌握
杏花古代别称的花语与寓意(探寻杏花在古代文化中的含义)
《宝可梦剑/盾》烈咬陆鲨对战战术详解
为什么类人机器人更适合我们的未来?
使用R语言构建ceRNA网络(circRNA-miRNA-mRNA)
迭戈·马拉多纳:足球史上最伟大的传奇人物
再进4位!南昌跻身中国百强城市前30名
日式料理必备小吃:天妇罗是什么意思
上海市高校毕业生"三支一扶"计划明起报名,高校就业中心专家给出这些建议
关注肠-脑轴:看肠道菌群是如何影响神经炎症
如何使用 VPN 从家中连接到办公室网络
影响狗狗寿命的多种因素及延长生命的方法探讨
家庭成员是什么?法律视角下的全面解析
这种紫花小草,人称“地黄瓜”,用来包饺子是一绝,春季不吃太可惜
如何分析煤价上涨的原因?煤价上涨会带来哪些影响?
西红柿上市时间及成熟月份揭秘(了解西红柿成熟期,挑选好时令水果)
普通人近身格斗自卫防身,为何说短棍是比匕首短刀更好的选择?
一文了解闭环神经刺激的应用
NEJM最新研究:失眠的评估、诊断与治疗进展
中老年人体检应关注哪些项目
三个团队如何算胜率
让女朋友开心的实用指南
金铲铲之战福星连败玩法攻略:如何利用连败机制获得高收益?
【科普】好好呼吸有多难?