问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

Transformer算法详解:从基础原理到核心组件

创作时间:
作者:
@小白创作中心

Transformer算法详解:从基础原理到核心组件

引用
CSDN
1.
https://blog.csdn.net/2401_84208172/article/details/142873250

Transformer是一种基于自注意力机制的神经网络模型,最早由Vaswani等人在论文《Attention is All You Need》中提出,主要用于处理序列到序列的任务,例如自然语言处理(NLP)中的翻译任务。与传统的循环神经网络(RNN)和长短期记忆网络(LSTM)相比,Transformer通过完全摆脱循环结构,依赖于注意力机制来捕捉序列中的长依赖关系。

Transformer模型架构

Transformer由两个主要部分组成:编码器和解码器。

编码器(Encoder)

编码器负责接收输入序列并生成一组向量表示。它由多个相同的层组成,每个层都有两个主要子层:

  • 多头自注意力机制
  • 前馈神经网络

解码器(Decoder)

解码器的结构与编码器类似,包含多个相同的层,但解码器的每一层有三个子层:

  • 掩蔽自注意力层
  • 编码器-解码器注意力层
  • 前馈神经网络

解码器的作用是生成每一步的输出,直到输出完整的序列。

核心组件

下面,我们来详细解释一下Transformer中包括的核心组件。

1. 输入

在自然语言处理(NLP)任务中,Transformer模型的输入通常是一个符号序列,比如单词、子词或字符。这个序列由一个个离散的符号构成,例如一个句子“How are you”就是一个符号序列。模型并不能直接处理这些离散符号,需要将它们转换为模型可以理解的连续向量表示。

输入处理的步骤

  • 分词:首先,句子会被分解成基本的符号单元(单词或子词)。例如,句子“How are you”会被分解成三个符号:[How, are, you]。
  • 词汇表映射:这些符号会映射为词汇表中的索引。比如,假设词汇表中“How”的索引是100,“are”是150,“you”是200,那么句子的输入表示为[100, 150, 200]。此时,这些索引依然是离散的整数,无法直接供神经网络处理,因此需要进一步转化为连续的向量表示。

2. 输入嵌入

输入嵌入的目的是将这些离散的符号索引转换为连续的向量表示。每个符号的嵌入向量保留了符号的语义信息,嵌入空间中的相似向量可以代表语义上相近的符号。Transformer使用一个可训练的嵌入矩阵来将符号索引映射为固定维度的向量。嵌入矩阵的大小为,其中是词汇表的大小(即有多少个不同的符号),是嵌入向量的维度。给定输入序列中的符号索引,每个索引都会通过查找嵌入矩阵得到其对应的嵌入向量,其中,每个是一个维度的向量。

3. 位置编码

Transformer与传统的循环神经网络(RNN)不同,它在处理输入序列时不具有自然的顺序感。为了解决这一问题,Transformer引入了位置编码。位置编码为每个输入符号引入一个与其位置相关的向量,并将该向量与符号的嵌入向量结合,以此传递位置信息。位置编码的常见公式为:

其中:

  • 表示符号在序列中的位置。
  • 是嵌入向量的维度索引。
  • 是嵌入向量的维度。

4. 多头自注意力机制

多头自注意力机制是Transformer的核心组件之一,它通过并行计算多个不同子空间的自注意力来增强模型对序列中不同部分的关注能力。这个机制能够让模型在不同的表示子空间中同时处理不同的注意力权重,从而捕捉更丰富的特征和关系。

自注意力机制

在理解多头自注意力机制之前,我们需要先理解基本的自注意力机制。自注意力机制用来计算输入序列中每个元素与其他所有元素之间的相关性,从而在捕捉句子中长依赖和全局上下文信息方面非常强大。它的核心思想是,对于序列中的每一个位置,计算它与其他所有位置的依赖关系,并生成一个加权的值。这可以看作是从输入序列的不同位置中选择对当前位置最相关的部分进行关注。

自注意力机制的计算过程包括以下几个步骤:

  • 对于输入序列,每个元素会生成三个不同的向量:查询向量(Query)、键向量(Key)和值向量(Value)。这些向量通过线性变换得到,其中、和是可学习的权重矩阵。
  • 接下来,计算查询向量与键向量的点积来得到注意力得分(Attention Scores),然后将其归一化为概率分布,再用这些分数加权值向量V。
  • 通过计算注意力得分,表示序列中不同元素之间的相关性。
  • 通过缩放因子控制数值的大小。
  • 通过softmax函数将注意力得分归一化为概率分布。
  • 通过加权求和生成每个位置的新表示。

多头注意力机制

多头自注意力机制通过引入多个“头”并行计算多个自注意力,让模型在不同的表示子空间中学习到不同的特征,从而增强模型的表达能力和灵活性。具体来说,它将自注意力机制的计算过程复制h次,每次使用不同的查询、键、值的线性变换。最后,将这些头的输出拼接起来,并通过一个线性变换得到最终的输出。

其中,每个是自注意力机制的输出,是一个可学习的线性变换矩阵。

5. 前馈神经网络

前馈神经网络是编码器层和解码器层中的一个关键组件,它负责对自注意力机制的输出进行进一步的非线性处理,增强模型的表达能力。前馈神经网络是一个简单的两层全连接网络,结构如下:

  • 第一层是一个线性变换,将输入向量从维度映射到一个更高的维度。
  • 然后通过一个非线性激活函数(通常是ReLU)。
  • 第二层是另一个线性变换,将激活后的向量映射回原始维度。

其公式可以表示为:

其中:

  • 和是线性变换的权重矩阵
  • 和是偏置向量

FFN的作用是通过非线性映射提升模型的表达能力。

6. 层归一化和残差连接

为了加速训练并解决梯度消失或爆炸的问题,Transformer在每个子层后面引入了残差连接和层归一化。

  • 残差连接:将输入直接加到子层的输出上,其公式为
  • 层归一化:对每个子层的输出进行归一化处理,提升模型的稳定性

7. Masked多头自注意力子层

Masked多头自注意力子层是Transformer解码器中的一个重要部分。在解码器中,每个时间步生成输出的词时,只能依赖之前已经生成的词,而不能访问未来的词。为了确保这一点,Masked多头自注意力机制通过在注意力矩阵中对未来位置进行掩码,使其权重为负无穷,从而保证模型只能关注到之前的位置。

8. 编码器-解码器多头注意力子层

编码器-解码器多头注意力子层在Transformer的解码器中起到了关键作用,它使解码器能够有效地关注输入序列,从而在生成序列时参考原始输入信息。具体来说,编码器-解码器多头注意力的基本思想是通过对编码器输出(Key和Value)和解码器当前输入(Query)来生成新的表示。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号