diff --git a/docs/chapter2/第二章 Transformer架构.md b/docs/chapter2/第二章 Transformer架构.md new file mode 100644 index 0000000..147612f --- /dev/null +++ b/docs/chapter2/第二章 Transformer架构.md @@ -0,0 +1,878 @@ +# 第二章 Transformer 架构 + +## 2.1 注意力机制 + +### 2.1.1 什么是注意力机制 + +随着 NLP 从统计机器学习向深度学习迈进,作为 NLP 核心问题的文本表示方法也逐渐从统计学习向深度学习迈进。 +正如我们在第一章所介绍的,文本表示从最初的通过统计学习模型进行计算的向量空间模型、语言模型, +通过 Word2Vec 的单层神经网络进入到通过神经网络学习文本表示的时代。 +但是,从 CV(Computer Vision,计算机视觉)为起源发展起来的神经网络,其核心架构有三种: + +- 全连接网络(FNN),即每一层的神经元都和上下两层的每一个神经元完全连接: + +![全连接网络](./figures/1-0.png) + +- 卷积神经网络(CNN),即训练参数量远小于全连接层的卷积层来进行特征提取和学习: + +![卷积神经网络](./figures/1-1.png) + +- 循环神经网络(RNN),能够使用历史信息作为输入、包含环和自重复的网络: + +![循环神经网络](./figures/1-2.png) + +由于 NLP 任务所需要处理的文本往往是序列,因此专用于处理序列、时序数据的 RNN 往往能够在 NLP 任务上取得最优的效果。 +事实上,在注意力机制横空出世之前,RNN 以及 RNN 的衍生架构 LSTM 是 NLP 领域当之无愧的霸主。 +例如,我们在第一章讲到过的开创了预训练思想的文本表示模型 ELMo,就是使用的双向 LSTM 作为网络架构。 + +但 RNN 及 LSTM 虽然具有捕捉时序信息、适合序列生成的优点,却有两个难以弥补的缺陷: + +1. 序列依序计算的模式能够很好地模拟时序信息,但限制了计算机并行计算的能力。 +由于序列需要依次输入、依序计算,GPU 并行计算的能力受到了极大限制,导致 RNN 为基础架构的模型虽然参数量不算特别大, +但计算时间成本却很高; + +2. RNN 难以捕捉长序列的相关关系。在 RNN 架构中,距离越远的输入之间的关系就越难被捕捉, +同时 RNN 需要将整个序列读入内存依次计算,也限制了序列的长度。虽然 LSTM 中通过门机制对此进行了一定优化, +但对于较远距离相关关系的捕捉,RNN 依旧是不如人意的。 + +针对这样的问题,Vaswani 等学者参考了在 CV 领域被提出、被经常融入到 RNN 中使用的注意力机制 +(注意,虽然注意力机制在 NLP 被发扬光大,但其确实是在 CV 领域被提出的), +创新性地搭建了完全由注意力机制构成的神经网络——Transformer,也就是 LLM 的鼻祖及核心架构, +从而让注意力机制一跃成为深度学习最核心的架构之一。 + +那么,究竟什么是注意力机制(Attention)? + +​Attention 机制最先源于计算机视觉领域,其核心思想为当我们关注一张图片,我们往往无需看清楚全部内容而仅将注意力集中在重点部分即可。 +而在自然语言处理领域,我们往往也可以通过将重点注意力集中在一个或几个 token,从而取得更高效高质的计算效果。 + +Attention 机制有三个核心变量:**Query**(查询值)、**Key**(键值)和 **Value**(真值)。 +我们可以通过一个案例来理解每一个变量所代表的含义。 +例如,当我们有一篇新闻报道,我们想要找到这个报道的时间,那么,我们的 Query 可以是类似于“时间”、“日期”一类的向量 +(为了便于理解,此处使用文本来表示,但其实际是稠密的向量), +Key 和 Value 会是整个文本。通过对 Query 和 Key 进行运算我们可以得到一个权重, +这个权重其实反映了从 Query 出发,对文本每一个 token 应该分布的注意力相对大小。 +通过把权重和 Value 进行运算,得到的最后结果就是从 Query 出发计算整个文本注意力得到的结果。 + +​具体而言,Attention 机制的特点是通过计算 **Query** 与**Key**的相关性为真值加权求和, +从而拟合序列中每个词同其他词的相关关系。 + +### 2.1.2 深入理解注意力机制 + +刚刚我们说到,注意力机制有三个核心变量:查询值 Query,键值 Key 和 真值 Value。 +接下来我们以字典为例,逐步分析注意力机制的计算公式是如何得到的,从而帮助读者深入理解注意力机制。 +首先,我们有这样一个字典: + +```json +{ + "apple":10, + "banana":5, + "chair":2 +} +``` + +此时,字典的键就是注意力机制中的键值 Key,而字典的值就是真值 Value。 +字典支持我们进行精确的字符串匹配,例如,如果我们想要查找的值也就是查询值 Query 为“apple”, +那么我们可以直接通过将 Query 与 Key 做匹配来得到对应的 Value。 + +但是,如果我们想要匹配的 Query 是一个包含多个 Key 的概念呢? +例如,我们想要查找“fruit”,此时,我们应该将 apple 和 banana 都匹配到,但不能匹配到 chair。 +因此,我们往往会选择将 Key 对应的 Value 进行组合得到最终的 Value。 + +例如,当我们的 Query 为“fruit”,我们可以分别给三个 Key 赋予如下的权重: + +```json +{ + "apple":0.6, + "banana":0.4, + "chair":0 +} +``` + +那么,我们最终查询到的值应该是: + +$$value = 0.6 * 10 + 0.4 * 5 + 0 * 2 = 8$$ + +给不同 Key 所赋予的不同权重,就是我们所说的注意力分数,也就是为了查询到 Query,我们应该赋予给每一个 Key 多少注意力。 +但是,如何针对每一个 Query,计算出对应的注意力分数呢? +从直观上讲,我们可以认为 Key 与 Query 相关性越高,则其所应该赋予的注意力权重就越大。 +但是,我们如何能够找到一个合理的、能够计算出正确的注意力分数的方法呢? + +在第一章中,我们有提到词向量的概念。通过合理的训练拟合,词向量能够表征语义信息, +从而让语义相近的词在向量空间中距离更近,语义较远的词在向量空间中距离更远。 +我们往往用欧式距离来衡量词向量的相似性,但我们同样也可以用点积来进行度量: + +$$v·w = \sum_{i}v_iw_i$$ + +根据词向量的定义,语义相似的两个词对应的词向量的点积应该大于0,而语义不相似的词向量点积应该小于0。 + +那么,我们就可以用点积来计算词之间的相似度。假设我们的 Query 为“fruit”,对应的词向量为 $q$; +我们的 Key 对应的词向量为 $k = [v_{apple} v_{banana} v_{chair}]$, +则我们可以计算 Query 和每一个键的相似程度: + +$$x = qK^T$$ + +此处的 K 即为将所有 Key 对应的词向量堆叠形成的矩阵。基于矩阵乘法的定义,x 即为 q 与每一个 k 值的点积。 +现在我们得到的 x 即反映了 Query 和每一个 Key 的相似程度,我们再通过一个 Softmax 层将其转化为和为 1 的权重: + +$$softmax(x)_i = \frac{e^{xi}}{\sum_{j}e^{x_j}}$$ + +这样,得到的向量就能够反映 Query 和每一个 Key 的相似程度,同时又相加权重为 1,也就是我们的注意力分数了。 +最后,我们再将得到的注意力分数和值向量做对应乘积即可。根据上述过程,我们就可以得到注意力机制计算的基本公式: + +$$attention(Q,K,V) = softmax(qK^T)v$$ + +不过,此时的值还是一个标量,同时,我们此次只查询了一个 Query。我们可以将值转化为维度为 $d_v$ 的向量, +同时一次性查询多个 Query,同样将多个 Query 对应的词向量堆叠在一起形成矩阵 Q,得到公式: + +$$attention(Q,K,V) = softmax(QK^T)V$$ + +目前,我们离标准的注意力公式还差最后一步。 +在上一个公式中,如果 Q 和 K 对应的维度 $d_k$ 比较大, +softmax 放缩时就非常容易受影响,使不同值之间的差异较大,从而影响梯度的稳定性。 +因此,我们要将 Q 和 K 乘积的结果做一个放缩: + +$$attention(Q,K,V) = softmax(\frac{QK^T}{\sqrt{d_k}})V$$ + +这也就是注意力机制的核心计算公式了。 + +### 2.1.3 注意力机制的实现 + +基于上文,我们可以很简单地使用 Pytorch 来实现注意力机制的代码: + +```python +'''注意力计算函数''' +def attention(query, key, value, dropout=None): + ''' + args: + query: 查询值矩阵 + key: 键值矩阵 + value: 真值矩阵 + ''' + # 获取键向量的维度,键向量的维度和值向量的维度相同 + d_k = query.size(-1) + # 计算Q与K的内积并除以根号dk + # transpose——相当于转置 + scores = torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k) + # Softmax + p_attn = scores.softmax(dim=-1) + if dropout is not None: + p_attn = dropout(p_attn) + # 采样 + # 根据计算结果对value进行加权求和 + return torch.matmul(p_attn, value), p_attn + +``` + +注意,在上文代码中,我们假设输入的 q、k、v 是已经经过转化的词向量矩阵,也就是公式中的 Q、K、V。 +我们仅需要通过上述几行代码,就可以实现核心的 attention 计算。 + +### 2.1.4 自注意力 + +根据上文的分析,我们可以发现,Attention 机制的本质是对两段序列的元素依次进行相似度计算, +寻找出一个序列的每个元素对另一个序列的每个元素的相关度,然后基于相关度进行加权,即分配注意力。 +而这两段序列即是我们计算过程中 Q、K、V 的来源。 + +但是,在我们的实际应用中,我们往往只需要计算 Query 和 Key 之间的注意力结果,很少存在额外的真值 Value。 +也就是说,我们其实只需要拟合两个文本序列。 +​在经典的 Attention 机制中,Q 往往来自于一个序列,K 与 V 来自于另一个序列,都通过参数矩阵计算得到,从而可以拟合这两个序列之间的关系。 +例如在 Transformer 的 Decoder 结构中,Q 来自于 Encoder 的输出,K 与 V 来自于 Decoder 的输入, +从而拟合了编码信息与历史信息之间的关系,便于综合这两种信息实现未来的预测。 + +​但在 Transformer 的 Encoder 结构中,使用的是 Attention 机制的变种 —— self-attention (自注意力)机制。 +所谓自注意力,即是计算本身序列中每个元素都其他元素的注意力分布, +即在计算过程中,Q、K、V 都由同一个输入通过不同的参数矩阵计算得到。 +在 Encoder 中,Q、K、V 分别是输入对参数矩阵 $W_q$、$W_k$、$W_v$ 做积得到,从而拟合输入语句中每一个 token 对其他所有 token 的关系。 + +通过自注意力机制,我们可以找到一段文本中每一个 token 与其他所有 token 的相关关系大小,从而建模文本之间的依赖关系。 +​在代码中的实现,self-attention 机制其实是通过给 Q、K、V 的输入传入同一个参数实现的: + +```python +# attention 为上文定义的注意力计算函数 +attention(x, x, x) +``` + +### 2.1.5 掩码自注意力 + +掩码自注意力,即 Mask Self Attention,是指使用注意力掩码的自注意力机制。 +掩码的作用是遮蔽一些特定位置的 token,模型在学习的过程中,会忽略掉被遮蔽的 token。 + +使用注意力掩码的核心动机是让模型只能使用历史信息进行预测而不能看到未来信息。 +使用注意力机制的 Transformer 模型也是通过类似于 n-gram 的语言模型任务来学习的, +也就是对一个文本序列,不断根据之前的 token 来预测下一个 token,直到将整个文本序列补全。 + +例如,如果待学习的文本序列是 【BOS】I like you【EOS】,那么,模型会按如下顺序进行预测和学习: + + Step 1:输入 【BOS】,输出 I + Step 2:输入 【BOS】I,输出 like + Step 3:输入 【BOS】I like,输出 you + Step 4:输入 【BOS】I like you,输出 【EOS】 + +理论上来说,只要学习的语料足够多,通过上述的过程,模型可以学会任意一种文本序列的建模方式,也就是可以对任意的文本进行补全。 + +但是,我们可以发现,上述过程是一个串行的过程,也就是需要先完成 Step 1,才能做 Step 2,接下来逐步完成整个序列的补全。 +我们在一开始就说过,Transformer 相对于 RNN 的核心优势之一即在于其可以并行计算,具有更高的计算效率。 +如果对于每一个训练语料,模型都需要串行完成上述过程才能完成学习,那么很明显没有做到并行计算,计算效率很低。 + +针对这个问题,Transformer 就提出了掩码自注意力的方法。掩码自注意力会生成一串掩码,来遮蔽未来信息。 +例如,我们待学习的文本序列仍然是 【BOS】I like you【EOS】,我们使用的注意力掩码是【MASK】,那么模型的输入为: + + 【MASK】【MASK】【MASK】【MASK】 + I 【MASK】 【MASK】【MASK】 + I like 【MASK】【MASK】 + I like you 【MASK】 + I like you + +在每一行输入中,模型仍然是只看到前面的 token,预测下一个 token。但是注意,上述输入不再是串行的过程, +而可以一起并行地输入到模型中,模型只需要每一个样本根据未被遮蔽的 token 来预测下一个 token 即可,从而实现了并行的语言模型。 + +观察上述的掩码,我们可以发现其实则是一个和文本序列等长的上三角矩阵。 +我们可以简单地通过创建一个和输入同等长度的上三角矩阵作为注意力掩码,再使用掩码来遮蔽掉输入即可。 +也就是说,当输入维度为 (batch_size, seq_len, hidden_size)时,我们的 Mask 矩阵维度一般为 (1, seq_len, seq_len)(通过广播实现同一个 batch 中不同样本的计算)。 + +在具体实现中,我们通过以下代码生成 Mask 矩阵: + +```python +# 创建一个上三角矩阵,用于遮蔽未来信息。 +# 先通过 full 函数创建一个 1 * seq_len * seq_len 的矩阵 +mask = torch.full((1, args.max_seq_len, args.max_seq_len), float("-inf")) +# triu 函数的功能是创建一个上三角矩阵 +mask = torch.triu(mask, diagonal=1) +``` + +生成的 Mask 矩阵会是一个上三角矩阵,上三角位置的元素均为 -inf,其他位置的元素置为0。 + +在注意力计算时,我们会将计算得到的注意力分数与这个掩码做和,再进行 Softmax 操作: + +```python +# 此处的 scores 为计算得到的注意力分数,mask 为上文生成的掩码矩阵 +scores = scores + mask[:, :seqlen, :seqlen] +scores = F.softmax(scores.float(), dim=-1).type_as(xq) +``` + +通过做求和,上三角区域(也就是应该被遮蔽的 token 对应的位置)的注意力分数结果都变成了 -inf,而下三角区域的分数不变。 +再做 Softmax 操作,-inf 的值在经过 Softmax 之后会被置为 0,从而忽略了上三角区域计算的注意力分数,从而实现了注意力遮蔽。 + +### 2.1.6 多头注意力 + +注意力机制可以实现并行化与长期依赖关系拟合,但一次注意力计算只能拟合一种相关关系, +单一的注意力机制很难全面拟合语句序列里的相关关系。 +因此 Transformer 使用了 Multi-Head attention,也就是多头注意力机制, +即同时对一个语料进行多次注意力计算,每次注意力计算都能拟合不同的关系,将最后的多次结果拼接起来作为最后的输出,即可更全面深入地拟合语言信息。 + +在原论文中,作者也通过实验证实,多头注意力计算中,每个不同的注意力头能够拟合语句中的不同信息,如下图: + +![Multihead Attention](./figures/1-3.jpeg) + +​上层与下层分别是两个注意力头对同一段语句序列进行自注意力计算的结果,可以看到, +对于不同的注意力头,能够拟合不同层次的相关信息。 +通过多个注意力头同时计算,能够更全面地拟合语句关系。 + +事实上,所谓的多头注意力机制其实就是将原始的输入序列进行多组的自注意力处理; +然后再将每一组得到的自注意力结果拼接起来,再通过一个线性层进行处理,得到最终的输出。 +我们用公式可以表示为: + +$$ +\mathrm{MultiHead}(Q, K, V) = \mathrm{Concat}(\mathrm{head_1}, ..., +\mathrm{head_h})W^O \\ + \text{where}~\mathrm{head_i} = \mathrm{Attention}(QW^Q_i, KW^K_i, VW^V_i) +$$ + +其最直观的代码实现并不复杂,即 n 个头就有 n 组3个参数矩阵,每一组进行同样的注意力计算, +但由于是不同的参数矩阵从而通过反向传播实现了不同的注意力结果,然后将 n 个结果拼接起来输出即可。 + +但上述实现时空复杂度均较高,我们可以通过矩阵运算巧妙地实现并行的多头计算, +其核心逻辑在于使用三个组合矩阵来代替了n个参数矩阵的组合,也就是矩阵内积再拼接其实等同于拼接矩阵再内积。 +具体实现可以参考下列代码: + +```python +import torch.nn as nn +import torch + +'''多头自注意力计算模块''' +class MultiHeadAttention(nn.Module): + + def __init__(self, args: ModelArgs, is_causal=False): + # 构造函数 + # args: 配置对象 + super().__init__() + # 隐藏层维度必须是头数的整数倍,因为后面我们会将输入拆成头数个矩阵 + assert args.n_embd % args.n_head == 0 + # 模型并行处理大小,默认为1。 + model_parallel_size = 1 + # 本地计算头数,等于总头数除以模型并行处理大小。 + self.n_local_heads = args.n_heads // model_parallel_size + # 每个头的维度,等于模型维度除以头的总数。 + self.head_dim = args.dim // args.n_heads + + # Wq, Wk, Wv 参数矩阵,每个参数矩阵为 n_embd x n_embd + # 这里通过三个组合矩阵来代替了n个参数矩阵的组合,其逻辑在于矩阵内积再拼接其实等同于拼接矩阵再内积, + # 不理解的读者可以自行模拟一下,每一个线性层其实相当于n个参数矩阵的拼接 + self.wq = nn.Linear(args.dim, args.n_heads * self.head_dim, bias=False) + self.wk = nn.Linear(args.dim, args.n_heads * self.head_dim, bias=False) + self.wv = nn.Linear(args.dim, args.n_heads * self.head_dim, bias=False) + # 输出权重矩阵,维度为 n_embd x n_embd(head_dim = n_embeds / n_heads) + self.wo = nn.Linear(args.n_heads * self.head_dim, args.dim, bias=False) + # 注意力的 dropout + self.attn_dropout = nn.Dropout(args.dropout) + # 残差连接的 dropout + self.resid_dropout = nn.Dropout(args.dropout) + + # 创建一个上三角矩阵,用于遮蔽未来信息 + # 注意,因为是多头注意力,Mask 矩阵比之前我们定义的多一个维度 + if is_causal: + mask = torch.full((1, 1, args.max_seq_len, args.max_seq_len), float("-inf")) + mask = torch.triu(mask, diagonal=1) + # 注册为模型的缓冲区 + self.register_buffer("mask", mask) + + def forward(self, q: torch.Tensor, k: torch.Tensor, v: torch.Tensor): + + # 获取批次大小和序列长度,[batch_size, seq_len, dim] + bsz, seqlen, _ = q.shape + + # 计算查询(Q)、键(K)、值(V),输入通过参数矩阵层,维度为 (B, T, n_embed) x (n_embed, n_embed) -> (B, T, n_embed) + xq, xk, xv = self.wq(q), self.wk(k), self.wv(v) + + # 将 Q、K、V 拆分成多头,维度为 (B, T, n_head, C // n_head),然后交换维度,变成 (B, n_head, T, C // n_head) + # 因为在注意力计算中我们是取了后两个维度参与计算 + # 为什么要先按B*T*n_head*C//n_head展开再互换1、2维度而不是直接按注意力输入展开,是因为view的展开方式是直接把输入全部排开, + # 然后按要求构造,可以发现只有上述操作能够实现我们将每个头对应部分取出来的目标 + xq = xq.view(bsz, seqlen, self.n_local_heads, self.head_dim) + xk = xk.view(bsz, seqlen, self.n_local_heads, self.head_dim) + xv = xv.view(bsz, seqlen, self.n_local_heads, self.head_dim) + xq = xq.transpose(1, 2) + xk = xk.transpose(1, 2) + xv = xv.transpose(1, 2) + + + # 注意力计算 + # 计算 QK^T / sqrt(d_k),维度为 (B, nh, T, hs) x (B, nh, hs, T) -> (B, nh, T, T) + scores = torch.matmul(xq, xk.transpose(2, 3)) / math.sqrt(self.head_dim) + # 掩码自注意力必须有注意力掩码 + if self.is_causal: + assert hasattr(self, 'mask') + # 这里截取到序列长度,因为有些序列可能比 max_seq_len 短 + scores = scores + self.mask[:, :, :seqlen, :seqlen] + # 计算 softmax,维度为 (B, nh, T, T) + scores = F.softmax(scores.float(), dim=-1).type_as(xq) + # 做 Dropout + scores = self.attn_dropout(scores) + # V * Score,维度为(B, nh, T, T) x (B, nh, T, hs) -> (B, nh, T, hs) + output = torch.matmul(scores, xv) + + # 恢复时间维度并合并头。 + # 将多头的结果拼接起来, 先交换维度为 (B, T, n_head, C // n_head),再拼接成 (B, T, n_head * C // n_head) + # contiguous 函数用于重新开辟一块新内存存储,因为Pytorch设置先transpose再view会报错, + # 因为view直接基于底层存储得到,然而transpose并不会改变底层存储,因此需要额外存储 + output = output.transpose(1, 2).contiguous().view(bsz, seqlen, -1) + + # 最终投影回残差流。 + output = self.wo(output) + output = self.resid_dropout(output) + return output + +``` + +## 2.2 Encoder-Decoder + +在上一节,我们详细介绍了 Transformer 的核心——Attention 机制。在《Attention is All You Need》一文中,作者通过仅使用 Attention 而抛弃传统的 RNN、CNN 架构搭建出 Transformer 模型,从而带来了 NLP 领域的大变革。在 Transformer 中,使用 Attention 机制的是其两个核心组件——Encoder(编码器)和 Decoder(解码器)。事实上,后续基于 Transformer 架构而来的预训练语言模型基本都是对 Encoder-Decoder 部分进行改进来构建新的模型架构,例如只使用 Encoder 的 BERT、只使用 Decoder 的 GPT 等。 + +在本节中,我们将以上一节所介绍的 Attention 机制为基础,从 Transformer 所针对的 Seq2Seq 任务出发,解析 Transformer 的 Encoder-Decoder 结构。 + +### 2.2.1 Seq2Seq 模型 + +Seq2Seq,即序列到序列,是一种经典 NLP 任务。具体而言,是指模型输入的是一个自然语言序列 $input = (x_1, x_2, x_3...x_n)$,输出的是一个可能不等长的自然语言序列 $output = (y_1, y_2, y_3...y_m)$。事实上,Seq2Seq 是 NLP 最经典的任务,几乎所有的 NLP 任务都可以视为 Seq2Seq 任务。例如文本分类任务,可以视为输出长度为 1 的目标序列(如在上式中 $m$ = 1);词性标注任务,可以视为输出与输入序列等长的目标序列(如在上式中 $m$ = $n$)。 + +机器翻译任务即是一个经典的 Seq2Seq 任务,例如,我们的输入可能是“今天天气真好”,输出是“Today is a good day.”。Transformer 是一个经典的 Seq2Seq 模型,即模型的输入为文本序列,输出为另一个文本序列。事实上,Transformer 一开始正是应用在机器翻译任务上的。 + +对于 Seq2Seq 任务,一般的思路是对自然语言序列进行编码再解码。所谓编码,就是将输入的自然语言序列通过隐藏层编码成能够表征语义的向量(或矩阵),可以简单理解为更复杂的词向量表示。而解码,就是对输入的自然语言序列编码得到的向量或矩阵通过隐藏层输出,再解码成对应的自然语言目标序列。通过编码再解码,就可以实现 Seq2Seq 任务。 + +Transformer 中的 Encoder,就是用于上述的编码过程;Decoder 则用于上述的解码过程。Transformer 结构如下图: + +![Encoder-Decoder](./figures/2-0.jpg) + +Transformer 由 Encoder 和 Decoder 组成,每一个 Encoder(Decoder)又由 6个 Encoder(Decoder)Layer 组成。输入源序列会进入 Encoder 进行编码,到 Encoder Layer 的最顶层再将编码结果输出给 Decoder Layer 的每一层,通过 Decoder 解码后就可以得到输出目标序列了。 + +接下来,我们将首先介绍 Encoder 和 Decoder 内部传统神经网络的经典结构——全连接网络(FNN)、层归一化(Layer Norm)和残差连接(Residual Connection),然后进一步分析 Encoder 和 Decoder 的内部结构。 + +### 2.2.2 全连接网络 + +全连接网络(Full Neural Network,下简称 FNN),也就是我们在上一节提过的每一层的神经元都和上下两层的每一个神经元完全连接的网络结构。每一个 Encoder Layer 都包含一个上文讲的注意力机制和一个全连接层。全连接层的实现是较为简单的: + +```python +class MLP(nn.Module): + '''全连接层''' + def __init__(self, dim: int, hidden_dim: int, dropout: float): + super().__init__() + # 定义第一层线性变换,从输入维度到隐藏维度 + self.w1 = nn.Linear(dim, hidden_dim, bias=False) + # 定义第二层线性变换,从隐藏维度到输入维度 + self.w2 = nn.Linear(hidden_dim, dim, bias=False) + # 定义dropout层,用于防止过拟合 + self.dropout = nn.Dropout(dropout) + + def forward(self, x): + # 前向传播函数 + # 首先,输入x通过第一层线性变换和RELU激活函数 + # 然后,结果乘以输入x通过第三层线性变换的结果 + # 最后,通过第二层线性变换和dropout层 + return self.dropout(self.w2(F.relu(self.w1(x)))) + +``` + +注意,Transformer 的全连接层是由两个线性层中间加一个 RELU 激活函数组成的,以及全连接层还加入了一个 Dropout 层来防止过拟合。 + +### 2.2.3 层归一化 + +层归一化,也就是 Layer Norm,是深度学习中经典的归一化操作。神经网络主流的归一化一般有两种,批归一化(Batch Norm)和层归一化(Layer Norm)。 + +归一化核心是为了让不同层输入的取值范围或者分布能够比较一致。由于深度神经网络中每一层的输入都是上一层的输出,因此多层传递下,对网络中较高的层,之前的所有神经层的参数变化会导致其输入的分布发生较大的改变。也就是说,随着神经网络参数的更新,各层的输出分布是不相同的,且差异会随着网络深度的增大而增大。但是,需要预测的条件分布始终是相同的,从而也就造成了预测的误差。 + +因此,在深度神经网络中,往往需要归一化操作,将每一层的输入都归一化成标准正态分布。批归一化是指在一个 mini-batch 上进行归一化,相当于对一个 batch 对样本拆分出来一部分,首先计算样本的均值: + +$$\mu_j = \frac{1}{m}\sum^{m}_{i=1}Z_j^{i}$$ + +其中,$Z_j^{i}$ 是样本 i 在第 j 个维度上的值,m 就是 mini-batch 的大小。 + +再计算样本的方差: + +$$\sigma^2 = \frac{1}{m}\sum^{m}_{i=1}(Z_j^i - \mu_j)^2$$ + +最后,对每个样本的值减去均值再除以标准差来将这一个 mini-batch 的样本的分布转化为标准正态分布: + +$$\widetilde{Z_j} = \frac{Z_j - \mu_j}{\sqrt{\sigma^2 + \epsilon}}$$ + +此处加上 $\epsilon$ 这一极小量是为了避免分母为0。 + +但是,批归一化存在一些缺陷,例如: + +- 当显存有限,mini-batch 较小时,Batch Norm 取的样本的均值和方差不能反映全局的统计分布信息,从而导致效果变差; +- 对于在时间维度展开的 RNN,不同句子的同一分布大概率不同,所以 Batch Norm 的归一化会失去意义; +- 在训练时,Batch Norm 需要保存每个 step 的统计信息(均值和方差)。在测试时,由于变长句子的特性,测试集可能出现比训练集更长的句子,所以对于后面位置的 step,是没有训练的统计量使用的; +- 应用 Batch Norm,每个 step 都需要去保存和计算 batch 统计量,耗时又耗力 + +因此,出现了在深度神经网络中更常用、效果更好的层归一化(Layer Norm)。相较于 Batch Norm 在每一层统计所有样本的均值和方差,Layer Norm 在每个样本上计算其所有层的均值和方差,从而使每个样本的分布达到稳定。Layer Norm 的归一化方式其实和 Batch Norm 是完全一样的,只是统计统计量的维度不同。 + +基于上述进行归一化的公式,我们可以简单地实现一个 Layer Norm 层: + +```python +class LayerNorm(nn.Module): + ''' Layer Norm 层''' + def __init__(self, features, eps=1e-6): + super(LayerNorm, self).__init__() + # 线性矩阵做映射 + self.a_2 = nn.Parameter(torch.ones(features)) + self.b_2 = nn.Parameter(torch.zeros(features)) + self.eps = eps + + def forward(self, x): + # 在统计每个样本所有维度的值,求均值和方差 + mean = x.mean(-1, keepdim=True) # mean: [bsz, max_len, 1] + std = x.std(-1, keepdim=True) # std: [bsz, max_len, 1] + # 注意这里也在最后一个维度发生了广播 + return self.a_2 * (x - mean) / (std + self.eps) + self.b_2 +``` +注意,在我们上文实现的 Layer Norm 层中,有两个线性矩阵进行映射。 + +### 2.2.4 残差连接 + +由于 Transformer 模型结构较复杂、层数较深,​为了避免模型退化,Transformer 采用了残差连接的思想来连接每一个子层。残差连接,即下一层的输入不仅是上一层的输出,还包括上一层的输入。残差连接允许最底层信息直接传到最高层,让高层专注于残差的学习。 + +​例如,在 Encoder 中,在第一个子层,输入进入多头自注意力层的同时会直接传递到该层的输出,然后该层的输出会与原输入相加,再进行标准化。在第二个子层也是一样。即: +$$ +x = x + MultiHeadSelfAttention(LayerNorm(x)) +$$ +$$ +output = x + FNN(LayerNorm(x)) +$$ + +我们在代码实现中,通过在层的 forward 计算中加上原值来实现残差连接: + +```python +# 注意力计算 +h = x + self.attention.forward(self.attention_norm(x)) +# 经过全连接网络 +out = h + self.feed_forward.forward(self.fnn_norm(h)) +``` + +在上文代码中,self.attention_norm 和 self.fnn_norm 都是 LayerNorm 层,self.attn 是注意力层,而 self.feed_forward 是全连接层。 + +### 2.2.5 Encoder + + +在实现上述组件之后,我们可以搭建起 Transformer 的 Encoder。Encoder 由 N 个 Encoder Layer 组成,每一个 Encoder Layer 包括一个注意力层和一个全连接层。因此,我们可以首先实现一个 Encoder Layer: + +```python +class EncoderLayer(nn.Module): + '''Encoder层''' + def __init__(self, config): + super().__init__() + # 一个 Layer 中有两个 LayerNorm,分别在 Attention 之前和 MLP 之前 + self.attention_norm = LayerNorm(args.n_embd) + # Encoder 不需要掩码,传入 is_causal=False + self.attention = MultiHeadAttention(args, is_causal=False) + self.fnn_norm = LayerNorm(args.n_embd) + self.feed_forward = MLP(args) + + def forward(self, x): + # Layer Norm + x = self.attention_norm(x) + # 自注意力 + h = x + self.attention.forward(x, x, x) + # 经过全连接网络 + out = h + self.feed_forward.forward(self.fnn_norm(h)) + return out +``` + +然后我们搭建一个 Encoder,由 N 个 Encoder Layer 组成,在最后会加入一个 Layer Norm 实现规范化: + +```python +class Encoder(nn.Module): + '''Encoder 块''' + def __init__(self, args): + super(Encoder, self).__init__() + # 一个 Encoder 由 N 个 Encoder Layer 组成 + self.layers = nn.ModuleList([EncoderLayer(args) for _ in range(args.n_layer)]) + self.norm = LayerNorm(args.n_embd) + + def forward(self, x): + "分别通过 N 层 Encoder Layer" + for layer in self.layers: + x = layer(x) + return self.norm(x) +``` + +通过 Encoder 的输出,就是输入编码之后的结果。 + +### 2.2.6 Decoder + +类似的,我们也可以先搭建 Decoder Layer,再将 N 个 Decoder Layer 组装为 Decoder。但是和 Encoder 不同的是,Decoder 由两个注意力层和一个全连接层组成。第一个注意力层是一个掩码自注意力层,即使用 Mask 的注意力计算,保证每一个 token 只能使用该 token 之前的注意力分数;第二个注意力层是一个多头注意力层,该层将使用第一个注意力层的输出作为 query,使用 Encoder 的输出作为 key 和 value,来计算注意力分数。最后,再经过全连接层: + +```python +class DecoderLayer(nn.Module): + '''解码层''' + def __init__(self, args): + super().__init__() + # 一个 Layer 中有三个 LayerNorm,分别在 Mask Attention 之前、Self Attention 之前和 MLP 之前 + self.attention_norm_1 = LayerNorm(args.n_embd) + # Decoder 的第一个部分是 Mask Attention,传入 is_causal=True + self.mask_attention = MultiHeadAttention(args, is_causal=True) + self.attention_norm_2 = LayerNorm(args.n_embd) + # Decoder 的第二个部分是 类似于 Encoder 的 Attention,传入 is_causal=False + self.attention = MultiHeadAttention(args, is_causal=False) + self.ffn_norm = LayerNorm(args.n_embd) + # 第三个部分是 MLP + self.feed_forward = MLP(config) + + def forward(self, x, enc_out): + # Layer Norm + x = self.attention_norm_1(x) + # 掩码自注意力 + x = x + self.mask_attention.forward(x, x, x) + # 多头注意力 + x = self.attention_norm_2(x) + h = x + self.attention.forward(x, enc_out, enc_out) + # 经过全连接网络 + out = h + self.feed_forward.forward(self.fnn_norm(h)) + return out +``` + +然后同样的,我们搭建一个 Decoder 块: + +```python +class Decoder(nn.Module): + '''解码器''' + def __init__(self, args): + super(Decoder, self).__init__() + # 一个 Decoder 由 N 个 Decoder Layer 组成 + self.layers = nn.ModuleList([DecoderLayer(args) for _ in range(args.n_layer)]) + self.norm = LayerNorm(args.n_embd) + + def forward(self, x, enc_out): + "Pass the input (and mask) through each layer in turn." + for layer in self.layers: + x = layer(x, enc_out) + return self.norm(x) +``` + +完成上述 Encoder、Decoder 的搭建,就完成了 Transformer 的核心部分,接下来将 Encoder、Decoder 拼接起来再加入 Embedding 层就可以搭建出完整的 Transformer 模型啦。 + +## 2.3 搭建一个 Transformer + +在前两章,我们分别深入剖析了 Attention 机制和 Transformer 的核心——Encoder、Decoder 结构,接下来,我们就可以基于上一章实现的组件,搭建起一个完整的 Transformer 模型。 + +### 2.3.1 Embeddng 层 + +正如我们在第一章所讲过的,在 NLP 任务中,我们往往需要将自然语言的输入转化为机器可以处理的向量。在深度学习中,承担这个任务的组件就是 Embedding 层。 + +Embedding 层其实是一个存储固定大小的词典的嵌入向量查找表。也就是说,在输入神经网络之前,我们往往会先让自然语言输入通过分词器 tokenizer,分词器的作用是把自然语言输入切分成 token 并转化成一个固定的 index。例如,如果我们将词表大小设为 4,输入“我喜欢你”,那么,分词器可以将输入转化成: + + input: 我 + output: 0 + + input: 喜欢 + output: 1 + + input:你 + output: 2 + +当然,在实际情况下,tokenizer 的工作会比这更复杂。例如,分词有多种不同的方式,可以切分成词、切分成子词、切分成字符等,而词表大小则往往高达数万数十万。此处我们不赘述 tokenizer 的详细情况,在后文会详细介绍大模型的 tokenizer 是如何运行和训练的。 + +因此,Embedding 层的输入往往是一个形状为 (batch_size,seq_len,1)的矩阵,第一个维度是一次批处理的数量,第二个维度是自然语言序列的长度,第三个维度则是 token 经过 tokenizer 转化成的 index 值。例如,对上述输入,Embedding 层的输入会是: + + [[0,1,2]] + +其 batch_size 为1,seq_len 为3,转化出来的 index 如上。 + +而 Embedding 内部其实是一个可训练的(Vocab_size,embedding_dim)的权重矩阵,词表里的每一个值,都对应一行维度为 embedding_dim 的向量。对于输入的值,会对应到这个词向量,然后拼接成(batch_size,seq_len,embedding_dim)的矩阵输出。 + +上述实现并不复杂,我们可以直接使用 torch 中的 Embedding 层: + +```python +self.tok_embeddings = nn.Embedding(args.vocab_size, args.dim) +``` + +### 2.3.2 位置编码 + +Attention 机制可以实现良好的并行计算,但同时,其注意力计算的方式也导致序列中相对位置的丢失。在 RNN、LSTM 中,输入序列会沿着语句本身的顺序被依次递归处理,因此输入序列的顺序提供了极其重要的信息,这也和自然语言的本身特性非常吻合。 + +但从上文对 Attention 机制的分析我们可以发现,在 Attention 机制的计算过程中,对于序列中的每一个 token,其他各个位置对其来说都是平等的,即“我喜欢你”和“你喜欢我”在 Attention 机制看来是完全相同的,但无疑这是 Attention 机制存在的一个巨大问题。因此,为使用序列顺序信息,保留序列中的相对位置信息,Transformer 采用了位置编码机制,该机制也在之后被多种模型沿用。 + +​位置编码,即根据序列中 token 的相对位置对其进行编码,再将位置编码加入词向量编码中。位置编码的方式有很多,Transformer 使用了正余弦函数来进行位置编码(绝对位置编码Sinusoidal),其编码方式为: + +$$ +PE(pos, 2i) = sin(pos/10000^{2i/d_{model}})\\ +PE(pos, 2i+1) = cos(pos/10000^{2i/d_{model}}) +$$ + +​上式中,pos 为 token 在句子中的位置,2i 和 2i+1 则是指示了 token 是奇数位置还是偶数位置,从上式中我们可以看出对于奇数位置的 token 和偶数位置的 token,Transformer 采用了不同的函数进行编码。 + +我们以一个简单的例子来说明位置编码的计算过程:假如我们输入的是一个长度为 4 的句子"I like to code",我们可以得到下面的词向量矩阵$\rm x$,其中每一行代表的就是一个词向量,$\rm x_0=[0.1,0.2,0.3,0.4]$对应的就是“I”的词向量,它的pos就是为0,以此类推,第二行代表的是“like”的词向量,它的pos就是1: +$$ +\rm x = \begin{bmatrix} 0.1 & 0.2 & 0.3 & 0.4 \\ 0.2 & 0.3 & 0.4 & 0.5 \\ 0.3 & 0.4 & 0.5 & 0.6 \\ 0.4 & 0.5 & 0.6 & 0.7 \end{bmatrix} +$$ +​则经过位置编码后的词向量为: +$$ +\rm x_{PE} = \begin{bmatrix} 0.1 & 0.2 & 0.3 & 0.4 \\ 0.2 & 0.3 & 0.4 & 0.5 \\ 0.3 & 0.4 & 0.5 & 0.6 \\ 0.4 & 0.5 & 0.6 & 0.7 \end{bmatrix} + \begin{bmatrix} \sin(\frac{0}{10000^0}) & \cos(\frac{0}{10000^0}) & \sin(\frac{0}{10000^{2/4}}) & \cos(\frac{0}{10000^{2/4}}) \\ \sin(\frac{1}{10000^0}) & \cos(\frac{1}{10000^0}) & \sin(\frac{1}{10000^{2/4}}) & \cos(\frac{1}{10000^{2/4}}) \\ \sin(\frac{2}{10000^0}) & \cos(\frac{2}{10000^0}) & \sin(\frac{2}{10000^{2/4}}) & \cos(\frac{2}{10000^{2/4}}) \\ \sin(\frac{3}{10000^0}) & \cos(\frac{3}{10000^0}) & \sin(\frac{3}{10000^{2/4}}) & \cos(\frac{3}{10000^{2/4}}) \end{bmatrix} = \begin{bmatrix} 0.1 & 1.2 & 0.3 & 1.4 \\ 1.041 & 0.84 & 0.41 & 1.49 \\ 1.209 & -0.016 & 0.52 & 1.59 \\ 0.541 & -0.489 & 0.895 & 1.655 \end{bmatrix} +$$ +我们可以使用如下的代码来获取上述例子的位置编码: +```python +import numpy as np +import matplotlib.pyplot as plt +def PositionEncoding(seq_len, d_model, n=10000): + P = np.zeros((seq_len, d_model)) + for k in range(seq_len): + for i in np.arange(int(d_model/2)): + denominator = np.power(n, 2*i/d_model) + P[k, 2*i] = np.sin(k/denominator) + P[k, 2*i+1] = np.cos(k/denominator) + return P + +P = PositionEncoding(seq_len=4, d_model=4, n=100) +print(P) +``` +```python +[[ 0. 1. 0. 1. ] + [ 0.84147098 0.54030231 0.09983342 0.99500417] + [ 0.90929743 -0.41614684 0.19866933 0.98006658] + [ 0.14112001 -0.9899925 0.29552021 0.95533649]] +``` +这样的位置编码主要有两个好处: + +1. 使 PE 能够适应比训练集里面所有句子更长的句子,假设训练集里面最长的句子是有 20 个单词,突然来了一个长度为 21 的句子,则使用公式计算的方法可以计算出第 21 位的 Embedding。 +2. 可以让模型容易地计算出相对位置,对于固定长度的间距 k,PE(pos+k) 可以用 PE(pos) 计算得到。因为 Sin(A+B) = Sin(A)Cos(B) + Cos(A)Sin(B), Cos(A+B) = Cos(A)Cos(B) - Sin(A)Sin(B)。 + +我们也可以通过严谨的数学推导证明该编码方式的优越性。原始的 Transformer Embedding 可以表示为: + +$$\begin{equation}f(\cdots,\boldsymbol{x}_m,\cdots,\boldsymbol{x}_n,\cdots)=f(\cdots,\boldsymbol{x}_n,\cdots,\boldsymbol{x}_m,\cdots)\end{equation} +$$ + +很明显,这样的函数是不具有不对称性的,也就是无法表征相对位置信息。我们想要得到这样一种编码方式: + +$$\begin{equation}\tilde{f}(\cdots,\boldsymbol{x}_m,\cdots,\boldsymbol{x}_n,\cdots)=f(\cdots,\boldsymbol{x}_m + \boldsymbol{p}_m,\cdots,\boldsymbol{x}_n + \boldsymbol{p}_n,\cdots)\end{equation} +$$ + +这里加上的 $p_m$,$p_n$ 就是位置编码。接下来我们将 $f(...,x_m+p_m,...,x_n+p_n)$ 在 m,n 两个位置上做泰勒展开: +$$\begin{equation}\tilde{f}\approx f + \boldsymbol{p}_m^{\top} \frac{\partial f}{\partial \boldsymbol{x}_m} + \boldsymbol{p}_n^{\top} \frac{\partial f}{\partial \boldsymbol{x}_n} + \frac{1}{2}\boldsymbol{p}_m^{\top} \frac{\partial^2 f}{\partial \boldsymbol{x}_m^2}\boldsymbol{p}_m + \frac{1}{2}\boldsymbol{p}_n^{\top} \frac{\partial^2 f}{\partial \boldsymbol{x}_n^2}\boldsymbol{p}_n + \underbrace{\boldsymbol{p}_m^{\top} \frac{\partial^2 f}{\partial \boldsymbol{x}_m \partial \boldsymbol{x}_n}\boldsymbol{p}_n}_{\boldsymbol{p}_m^{\top} \boldsymbol{\mathcal{H}} \boldsymbol{p}_n}\end{equation}$$ +可以看到第1项与位置无关,2~5项仅依赖单一位置,第6项(f 分别对 m、n 求偏导)与两个位置有关,所以我们希望第六项($p_m^THp_n$)表达相对位置信息,即求一个函数 g 使得 +$$p_m^THp_n = g(m-n)$$ + +我们假设 $H$ 是一个单位矩阵,则: + +$$p_m^THp_n = p_m^Tp_n = \langle\boldsymbol{p}_m, \boldsymbol{p}_n\rangle = g(m-n)$$ + +通过将向量 [x,y] 视为复数 x+yi,基于复数的运算法则构建方程: + +$$\begin{equation}\langle\boldsymbol{p}_m, \boldsymbol{p}_n\rangle = \text{Re}[\boldsymbol{p}_m \boldsymbol{p}_n^*]\end{equation}$$ + +再假设存在复数 $q_{m-n}$ 使得: + +$$\begin{equation}\boldsymbol{p}_m \boldsymbol{p}_n^* = \boldsymbol{q}_{m-n}\end{equation}$$ + +使用复数的指数形式求解这个方程,得到二维情形下位置编码的解: + +$$\begin{equation}\boldsymbol{p}_m = e^{\text{i}m\theta}\quad\Leftrightarrow\quad \boldsymbol{p}_m=\begin{pmatrix}\cos m\theta \\ \sin m\theta\end{pmatrix}\end{equation}$$ + +由于内积满足线性叠加性,所以更高维的偶数维位置编码,我们可以表示为多个二维位置编码的组合: + +$$\begin{equation}\boldsymbol{p}_m = \begin{pmatrix}e^{\text{i}m\theta_0} \\ e^{\text{i}m\theta_1} \\ \vdots \\ e^{\text{i}m\theta_{d/2-1}}\end{pmatrix}\quad\Leftrightarrow\quad \boldsymbol{p}_m=\begin{pmatrix}\cos m\theta_0 \\ \sin m\theta_0 \\ \cos m\theta_1 \\ \sin m\theta_1 \\ \vdots \\ \cos m\theta_{d/2-1} \\ \sin m\theta_{d/2-1} \end{pmatrix}\end{equation} +$$ + +再取 $\theta_i = 10000^{-2i/d}$(该形式可以使得随着|m−n|的增大,⟨pm,pn⟩有着趋于零的趋势,这一点可以通过对位置编码做积分来证明,而 base 取为 10000 是实验结果),就得到了上文的编码方式。 + +当 $H$ 不是一个单位矩阵时,因为模型的 Embedding 层所形成的 d 维向量之间任意两个维度的相关性比较小,满足一定的解耦性,我们可以将其视作对角矩阵,那么使用上述编码: + +$$\begin{equation}\boldsymbol{p}_m^{\top} \boldsymbol{\mathcal{H}} \boldsymbol{p}_n=\sum_{i=1}^{d/2} \boldsymbol{\mathcal{H}}_{2i,2i} \cos m\theta_i \cos n\theta_i + \boldsymbol{\mathcal{H}}_{2i+1,2i+1} \sin m\theta_i \sin n\theta_i\end{equation} +$$ + +通过积化和差: + +$$\begin{equation}\sum_{i=1}^{d/2} \frac{1}{2}\left(\boldsymbol{\mathcal{H}}_{2i,2i} + \boldsymbol{\mathcal{H}}_{2i+1,2i+1}\right) \cos (m-n)\theta_i + \frac{1}{2}\left(\boldsymbol{\mathcal{H}}_{2i,2i} - \boldsymbol{\mathcal{H}}_{2i+1,2i+1}\right) \cos (m+n)\theta_i \end{equation} +$$ + +说明该编码仍然可以表示相对位置。 + +上述​编码结果示例如下: + +![Positional Embedding](./figures/3-0.png) + +基于上述原理,我们实现一个​位置编码层: + +```python + +class PositionalEncoding(nn.Module): + '''位置编码模块''' + + def __init__(self, args): + super(PositionalEncoding, self).__init__() + # Dropout 层 + self.dropout = nn.Dropout(p=args.dropout) + + # block size 是序列的最大长度 + pe = torch.zeros(args.block_size, args.n_embd) + position = torch.arange(0, args.block_size).unsqueeze(1) + # 计算 theta + div_term = torch.exp( + torch.arange(0, args.n_embd, 2) * -(math.log(10000.0) / args.n_embd) + ) + # 分别计算 sin、cos 结果 + pe[:, 0::2] = torch.sin(position * div_term) + pe[:, 1::2] = torch.cos(position * div_term) + pe = pe.unsqueeze(0) + self.register_buffer("pe", pe) + + def forward(self, x): + # 将位置编码加到 Embedding 结果上 + x = x + self.pe[:, : x.size(1)].requires_grad_(False) + return self.dropout(x) +``` + +### 2.3.3 一个完整的 Transformer + +上述所有组件,再按照下图的 Tranfromer 结构拼接起来就是一个完整的 Transformer 模型啦: + +![Transformer 结构](./figures/3-1.png) + +如图,经过 tokenizer 映射后的输出先经过 Embedding 层和 Positional Embedding 层编码,然后进入上一节讲过的 N 个 Encoder 和 N 个 Decoder(在 Transformer 原模型中,N 取为6),最后经过一个线性层和一个 Softmax 层就得到了最终输出。 + +基于之前所实现过的组件,我们实现完整的 Transformer 模型: + +```python + +class Transformer(nn.Module): + '''整体模型''' + def __init__(self, args): + super().__init__() + # 必须输入词表大小和 block size + assert args.vocab_size is not None + assert args.block_size is not None + self.args = args + self.transformer = nn.ModuleDict(dict( + wte = nn.Embedding(args.vocab_size, args.n_embd), + wpe = PositionalEncoding(args), + drop = nn.Dropout(args.dropout), + encoder = Encoder(args), + decoder = Decoder(args), + )) + # 最后的线性层,输入是 n_embd,输出是词表大小 + self.lm_head = nn.Linear(args.n_embd, args.vocab_size, bias=False) + + # 初始化所有的权重 + self.apply(self._init_weights) + + # 查看所有参数的数量 + print("number of parameters: %.2fM" % (self.get_num_params()/1e6,)) + + '''统计所有参数的数量''' + def get_num_params(self, non_embedding=False): + # non_embedding: 是否统计 embedding 的参数 + n_params = sum(p.numel() for p in self.parameters()) + # 如果不统计 embedding 的参数,就减去 + if non_embedding: + n_params -= self.transformer.wpe.weight.numel() + return n_params + + '''初始化权重''' + def _init_weights(self, module): + # 线性层和 Embedding 层初始化为正则分布 + if isinstance(module, nn.Linear): + torch.nn.init.normal_(module.weight, mean=0.0, std=0.02) + if module.bias is not None: + torch.nn.init.zeros_(module.bias) + elif isinstance(module, nn.Embedding): + torch.nn.init.normal_(module.weight, mean=0.0, std=0.02) + + '''前向计算函数''' + def forward(self, idx, targets=None): + # 输入为 idx,维度为 (batch size, sequence length, 1);targets 为目标序列,用于计算 loss + device = idx.device + b, t = idx.size() + assert t <= self.config.block_size, f"不能计算该序列,该序列长度为 {t}, 最大序列长度只有 {self.config.block_size}" + + # 通过 self.transformer + # 首先将输入 idx 通过 Embedding 层,得到维度为 (batch size, sequence length, n_embd) + print("idx",idx.size()) + # 通过 Embedding 层 + tok_emb = self.transformer.wte(idx) + print("tok_emb",tok_emb.size()) + # 然后通过位置编码 + pos_emb = self.transformer.wpe(tok_emb) + # 再进行 Dropout + x = self.transformer.drop(pos_emb) + # 然后通过 Encoder + print("x after wpe:",x.size()) + enc_out = self.transformer.encoder(x) + print("enc_out:",enc_out.size()) + # 再通过 Decoder + x = self.transformer.decoder(x, enc_out) + print("x after decoder:",x.size()) + + if targets is not None: + # 训练阶段,如果我们给了 targets,就计算 loss + # 先通过最后的 Linear 层,得到维度为 (batch size, sequence length, vocab size) + logits = self.lm_head(x) + # 再跟 targets 计算交叉熵 + loss = F.cross_entropy(logits.view(-1, logits.size(-1)), targets.view(-1), ignore_index=-1) + else: + # 推理阶段,我们只需要 logits,loss 为 None + # 取 -1 是只取序列中的最后一个作为输出 + logits = self.lm_head(x[:, [-1], :]) # note: using list [-1] to preserve the time dim + loss = None + + return logits, loss +``` + +注意,上述代码除去搭建了整个 Transformer 结构外,我们还额外实现了三个函数: + +- get_num_params:用于统计模型的参数量 +- _init_weights:用于对模型所有参数进行随机初始化 +- forward:前向计算函数 + +另外,在前向计算函数中,我们对模型使用 pytorch 的交叉熵函数来计算损失,对于不同的损失函数,读者可以查阅 Pytorch 的官方文档,此处就不再赘述了。 + +经过上述步骤,我们就可以从零“手搓”一个完整的、可计算的 Transformer 模型。限于本书主要聚焦在 LLM,在本章,我们就不再详细讲述如何训练 Transformer 模型了;在后文中,我们将类似地从零“手搓”一个 LLaMA 模型,并手把手带大家训练一个属于自己的 Tiny LLaMA。 + +**参考文献** + +1. [Attention is all you need](https://arxiv.org/abs/1706.03762) +2. [An Intuition for Attention](https://jaykmody.com/blog/attention-intuition/)