Qwen模型架构详解
创作时间:
作者:
@小白创作中心
Qwen模型架构详解
引用
CSDN
1.
https://blog.csdn.net/weixin_46160781/article/details/142363421
Qwen是中国科技公司推出的开源大语言模型,其架构设计和实现细节对于理解Transformer类模型具有重要参考价值。本文详细介绍了Qwen模型的各个组成部分,包括Tokenizer、Embedding层、Decoder层、Attention机制、MLP模块等,并基于PyTorch和HuggingFace Transformers库的代码实现进行了深入解析。
- 左侧部分 (Qwen2 部分):
- 文本输入通过Tokenizer编码为Input_ids,之后输入到Embedding层。
- Embedding输出经过Hidden_states,然后传递给多个Layers层。每个Layer层通过RMSNorm进行正则化处理。
- Layers的输出会进入右侧的Decoder layer。
- Decoder Layer (解码层):
- Hidden_states经过RMSNorm正则化后,传递给Attention模块。
- 在Attention模块内,输入分为Query、Key和Value,用于注意力机制的计算。
- 经过Attention后的输出再经过另一个RMSNorm处理,并通过MLP(多层感知器)进一步处理。
- 每一步都有残差连接(Residual),保证信息流动不会丢失。
- Attention 机制 (右侧部分):
- Hidden_states分别生成Query、Key和Value,并应用Rotary positional embedding进行位置编码。
- 这些编码后的Query、Key和Value经过注意力计算,生成Attention_weight。
- Attention_weight通过Softmax归一化,并与Value相乘(Matmul),最后输出为O_Linear。
- MLP 模块:
- MLP 由两层线性层(Linear)和激活函数(Act)组成。它负责进一步的特征提取。
- 输出层:
- 最后,通过线性层计算Loss,并生成最终的Output。
基于PyTorch和HuggingFace Transformers库的 Qwen2 模型实现。代码结构的简要说明:
1.导入部分:
- 导入了相关的 PyTorch 模块(如 nn, torch.nn.functional, torch.utils.checkpoint 等)。
- 从 HuggingFace 的 transformers 库中导入了通用的模型工具和实用函数。
2.核心常量和配置:
- _CHECKPOINT_FOR_DOC 和 _CONFIG_FOR_DOC:定义文档中用于引用的检查点和配置。
- QWEN2_PRETRAINED_MODEL_ARCHIVE_LIST:列出预训练模型的名称。
3.辅助函数:
- _get_unpad_data:用于处理未填充的数据。
- rotate_half 和 apply_rotary_pos_emb:用于处理旋转位置嵌入(Rotary Position Embedding)的辅助函数。
4.核心组件类:
- Qwen2RMSNorm:Qwen2 版本的 RMS 正则化层,类似于 T5LayerNorm。
- Qwen2RotaryEmbedding:处理旋转位置嵌入(Rotary Position Embedding)的类。
- Qwen2MLP:多层感知器(MLP),用于模型中的全连接层。
- Qwen2Attention:注意力机制的实现,支持普通多头注意力机制和滑动窗口注意力。
- Qwen2FlashAttention2 和 Qwen2SdpaAttention:两种注意力机制的变体,分别是基于 Flash Attention 和 SDPA 的实现。
- Qwen2DecoderLayer:Qwen2 解码器层,结合注意力机制和 MLP。
- Qwen2PreTrainedModel:继承自 PreTrainedModel,提供模型的基本功能和初始化。
5.Qwen2 模型类:
- Qwen2Model:基础 Qwen2 模型,由多个解码器层组成,处理输入嵌入、注意力掩码和位置编码。
- Qwen2ForCausalLM:用于自回归生成任务的 Qwen2 模型,添加了语言模型头部(linear 层)。
- Qwen2ForSequenceClassification:用于序列分类任务的 Qwen2 模型,使用最后一个 token 的隐藏状态进行分类。
6.模型文档说明:
- 添加了文档说明,解释如何使用这些模型,以及输入和输出的格式。
7.前向传播逻辑:
- forward 函数是每个模型的核心方法,负责计算前向传播并输出结果。
- 模型通过输入的 input_ids 或 inputs_embeds 进行处理,并返回隐藏状态、注意力权重、缓存的键值对等。
8.训练相关功能:
- 支持梯度检查点(gradient_checkpointing)以节省内存。
- 支持缓存键值对(past_key_values)以加速自回归生成任务。
9.损失函数:
- 对于分类任务,使用交叉熵损失(CrossEntropyLoss)。
- 对于回归任务,使用均方误差损失(MSELoss)。
10.模型初始化和权重加载:
- 使用 post_init 来初始化权重。
- 提供了方法来获取和设置模型的输入嵌入层和输出层(get_input_embeddings 和 get_output_embeddings)。
源码阅读部分:
Qwen2Model 的 init 函数
def __init__(self, config: Qwen2Config):
# 调用父类的构造函数并传递配置
super().__init__(config)
# 获取填充token的索引
self.padding_idx = config.pad_token_id
# 设置词汇表大小
self.vocab_size = config.vocab_size
# 初始化嵌入层,输入为词汇表大小,输出为隐藏层大小,忽略填充token
self.embed_tokens = nn.Embedding(config.vocab_size, config.hidden_size, self.padding_idx)
# 初始化解码器层列表,包含num_hidden_layers个Qwen2DecoderLayer
self.layers = nn.ModuleList(
[Qwen2DecoderLayer(config, layer_idx) for layer_idx in range(config.num_hidden_layers)]
)
# 设置注意力机制的实现方式
self._attn_implementation = config._attn_implementation
# 初始化RMS正则化层,用于正则化隐藏状态
self.norm = Qwen2RMSNorm(config.hidden_size, eps=config.rms_norm_eps)
# 是否启用梯度检查点,以节省内存,默认关闭
self.gradient_checkpointing = False
# 调用后续的初始化过程,通常是权重初始化
self.post_init()
下面这个博客中已经讲的很清楚了
https://blog.csdn.net/qq_37021523/article/details/138901191
https://zhuanlan.zhihu.com/p/695112177
Transformer具体干了啥↓
接下来是拿每一个query q 去对每个 key k 做attention
得到b1
在上图中,
Multi-head Self-attention
不同的head关注点不一样
No position information in self-attention, e^i代表的是位置的信息。
图片来自:https://www.youtube.com/watch?v=ugWDIIOHtPA&t=4s&ab_channel=Hung-yiLee
热门推荐
从峨眉山到成都的全程路线、交通方式及距离详解
棕榈树长快的方法
七个方法助你一个月内养出好肌肤
阿莫西林胶囊和小柴胡颗粒可以同时吃吗
小柴胡颗粒能和阿莫西林一起吃吗?建议分开口服!
谨防打着“反诈”旗号的新型诈骗
贸易汇率对国际贸易的影响与分析
考研调剂的条件是什么?是先到先得吗?
警视电缆盗窃案件揭秘:追踪盗贼的艺术与法律的较量
八年级下《经典常谈》之《尚书》内容简介和思维导图
探索“韵”字的丰富组合及其深厚文化内涵和美感体验
如何学好英语的作文(提升英语写作能力的方法)
国企无限期合同:探究其背后的法律风险与挑战
63歲龍千玉「升格當婆婆」!婆媳矛盾爆因 媳婦必學5心法減壓不爆炸
智能手机组装胶水综合指南:您需要了解的一切
解密人生终极三问:我是谁?我从哪里来?我到哪里去?
武当山为什么叫“武当”?
鼓膜穿刺后鼓膜多久能完全愈合
如何正确补充膳食纤维 膳食纤维补充误区有哪些
零基础学中医(第20讲):中医基础理论之藏象学说之五脏的生克乘侮
空调除湿 vs 除湿机:功能对比与产品推荐
德州Full House是什么意思?怎么比大小?
关于废土题材的思考
跟踪出站调车讲解
让城市会“呼吸”更宜居
社区工作人员应具备的基本能力
孟浩然九首古诗,首首都似山水画
失眠是因为缺钙吗?失眠的五大原因及应对方法
甘油三酯超过1.7需要用药吗?
腊八节吃腊八蒜的传说 腊八蒜为什么是绿色的