Transformer模型的作用

  • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务, 如机器翻译, 文本生成等. 同时又可以构建预训练语言模型,用于不同任务的迁移学习.

架构图

6.Transformer架构 - 图1

总体架构可分为四个部分:

  • 输入部分
  • 输出部分
  • 编码器部分
  • 解码器部分

输入部分包含:

  • 源文本嵌入层及其位置编码器
  • 目标文本嵌入层及其位置编码器

6.Transformer架构 - 图2

文本嵌入层的作用

  • 无论是源文本嵌入还是目标文本嵌入,都是为了将文本中词汇的数字表示转变为向量表示, 希望在这样的高维空间捕捉词汇间的关系.
  1. # 导入必备的工具包
  2. import torch
  3. # 预定义的网络层torch.nn, 工具开发者已经帮助我们开发好的一些常用层,
  4. # 比如,卷积层, lstm层, embedding层等, 不需要我们再重新造轮子.
  5. import torch.nn as nn
  6. # 数学计算工具包
  7. import math
  8. # torch中变量封装函数Variable.
  9. from torch.autograd import Variable
  10. # 定义Embeddings类来实现文本嵌入层,这里s说明代表两个一模一样的嵌入层, 他们共享参数.
  11. # 该类继承nn.Module, 这样就有标准层的一些功能, 这里我们也可以理解为一种模式, 我们自己实现的所有层都会这样去写.
  12. class Embeddings(nn.Module):
  13. def __init__(self, d_model, vocab):
  14. """类的初始化函数, 有两个参数, d_model: 指词嵌入的维度, vocab: 指词表的大小."""
  15. # 接着就是使用super的方式指明继承nn.Module的初始化函数, 我们自己实现的所有层都会这样去写.
  16. super(Embeddings, self).__init__()
  17. # 之后就是调用nn中的预定义层Embedding, 获得一个词嵌入对象self.lut
  18. self.lut = nn.Embedding(vocab, d_model)
  19. # 最后就是将d_model传入类中
  20. self.d_model = d_model
  21. def forward(self, x):
  22. """可以将其理解为该层的前向传播逻辑,所有层中都会有此函数
  23. 当传给该类的实例化对象参数时, 自动调用该类函数
  24. 参数x: 因为Embedding层是首层, 所以代表输入给模型的文本通过词汇映射后的张量"""
  25. # 将x传给self.lut并与根号下self.d_model相乘作为结果返回
  26. return self.lut(x) * math.sqrt(self.d_model)

位置编码器的作用

  • 因为在Transformer的编码器结构中, 并没有针对词汇位置信息的处理,因此需要在Embedding层后加入位置编码器,将词汇位置不同可能会产生不同语义的信息加入到词嵌入张量中, 以弥补位置信息的缺失.
  1. # 定义位置编码器类, 我们同样把它看做一个层, 因此会继承nn.Module
  2. class PositionalEncoding(nn.Module):
  3. def __init__(self, d_model, dropout, max_len=5000):
  4. """位置编码器类的初始化函数, 共有三个参数, 分别是d_model: 词嵌入维度,
  5. dropout: 置0比率, max_len: 每个句子的最大长度"""
  6. super(PositionalEncoding, self).__init__()
  7. # 实例化nn中预定义的Dropout层, 并将dropout传入其中, 获得对象self.dropout
  8. self.dropout = nn.Dropout(p=dropout)
  9. # 初始化一个位置编码矩阵, 它是一个0阵,矩阵的大小是max_len x d_model.
  10. pe = torch.zeros(max_len, d_model)
  11. # 初始化一个绝对位置矩阵, 在我们这里,词汇的绝对位置就是用它的索引去表示.
  12. # 所以我们首先使用arange方法获得一个连续自然数向量,然后再使用unsqueeze方法拓展向量维度使其成为矩阵,
  13. # 又因为参数传的是1,代表矩阵拓展的位置,会使向量变成一个max_len x 1 的矩阵,
  14. position = torch.arange(0, max_len).unsqueeze(1)
  15. # 绝对位置矩阵初始化之后,接下来就是考虑如何将这些位置信息加入到位置编码矩阵中,
  16. # 最简单思路就是先将max_len x 1的绝对位置矩阵, 变换成max_len x d_model形状,然后覆盖原来的初始位置编码矩阵即可,
  17. # 要做这种矩阵变换,就需要一个1xd_model形状的变换矩阵div_term,我们对这个变换矩阵的要求除了形状外,
  18. # 还希望它能够将自然数的绝对位置编码缩放成足够小的数字,有助于在之后的梯度下降过程中更快的收敛. 这样我们就可以开始初始化这个变换矩阵了.
  19. # 首先使用arange获得一个自然数矩阵, 但是细心的同学们会发现, 我们这里并没有按照预计的一样初始化一个1xd_model的矩阵,
  20. # 而是有了一个跳跃,只初始化了一半即1xd_model/2 的矩阵。 为什么是一半呢,其实这里并不是真正意义上的初始化了一半的矩阵,
  21. # 我们可以把它看作是初始化了两次,而每次初始化的变换矩阵会做不同的处理,第一次初始化的变换矩阵分布在正弦波上, 第二次初始化的变换矩阵分布在余弦波上,
  22. # 并把这两个矩阵分别填充在位置编码矩阵的偶数和奇数位置上,组成最终的位置编码矩阵.
  23. div_term = torch.exp(torch.arange(0, d_model, 2) *
  24. -(math.log(10000.0) / d_model))
  25. pe[:, 0::2] = torch.sin(position * div_term)
  26. pe[:, 1::2] = torch.cos(position * div_term)
  27. # 这样我们就得到了位置编码矩阵pe, pe现在还只是一个二维矩阵,要想和embedding的输出(一个三维张量)相加,
  28. # 就必须拓展一个维度,所以这里使用unsqueeze拓展维度.
  29. pe = pe.unsqueeze(0)
  30. # 最后把pe位置编码矩阵注册成模型的buffer,什么是buffer呢,
  31. # 我们把它认为是对模型效果有帮助的,但是却不是模型结构中超参数或者参数,不需要随着优化步骤进行更新的增益对象.
  32. # 注册之后我们就可以在模型保存后重加载时和模型结构与参数一同被加载.
  33. self.register_buffer('pe', pe)
  34. def forward(self, x):
  35. """forward函数的参数是x, 表示文本序列的词嵌入表示"""
  36. # 在相加之前我们对pe做一些适配工作, 将这个三维张量的第二维也就是句子最大长度的那一维将切片到与输入的x的第二维相同即x.size(1),
  37. # 因为我们默认max_len为5000一般来讲实在太大了,很难有一条句子包含5000个词汇,所以要进行与输入张量的适配.
  38. # 最后使用Variable进行封装,使其与x的样式相同,但是它是不需要进行梯度求解的,因此把requires_grad设置成false.
  39. x = x + Variable(self.pe[:, :x.size(1)],
  40. requires_grad=False)
  41. # 最后使用self.dropout对象进行'丢弃'操作, 并返回结果.
  42. return self.dropout(x)

编码器部分:

  • 由N个编码器层堆叠而成
  • 每个编码器层由两个子层连接结构组成
  • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

6.Transformer架构 - 图3

掩码张量

  • 掩代表遮掩,码就是我们张量中的数值,它的尺寸不定,里面一般只有1和0的元素,代表位置被遮掩或者不被遮掩,至于是0位置被遮掩还是1位置被遮掩可以自定义,因此它的作用就是让另外一个张量中的一些数值被遮掩,也可以说被替换, 它的表现形式是一个张量.

作用:

  • 在transformer中, 掩码张量的主要作用在应用attention(将在下一小节讲解)时,有一些生成的attention张量中的值计算有可能已知了未来信息而得到的,未来信息被看到是因为训练时会把整个输出结果都一次性进行Embedding,但是理论上解码器的的输出却不是一次就能产生最终结果的,而是一次次通过上一次结果综合得出的,因此,未来的信息可能被提前利用. 所以,我们会进行遮掩. 关于解码器的有关知识将在后面的章节中讲解.
  1. def subsequent_mask(size):
  2. """生成向后遮掩的掩码张量, 参数size是掩码张量最后两个维度的大小, 它的最后两维形成一个方阵"""
  3. # 在函数中, 首先定义掩码张量的形状
  4. attn_shape = (1, size, size)
  5. # 然后使用np.ones方法向这个形状中添加1元素,形成上三角阵, 最后为了节约空间,
  6. # 再使其中的数据类型变为无符号8位整形unit8
  7. subsequent_mask = np.triu(np.ones(attn_shape), k=1).astype('uint8')
  8. # 最后将numpy类型转化为torch中的tensor, 内部做一个1 - 的操作,
  9. # 在这个其实是做了一个三角阵的反转, subsequent_mask中的每个元素都会被1减,
  10. # 如果是0, subsequent_mask中的该位置由0变成1
  11. # 如果是1, subsequent_mask中的该位置由1变成0
  12. return torch.from_numpy(1 - subsequent_mask)

注意力机制

它需要三个指定的输入Q(query), K(key), V(value), 然后通过公式得到注意力的计算结果, 这个结果代表query在key和value作用下的表示. 而这个具体的计算规则有很多种, 我这里只介绍我们用到的这一种.

6.Transformer架构 - 图4

Q, K, V的比喻解释:

  1. 假如我们有一个问题: 给出一段文本,使用一些关键词对它进行描述!
  2. 为了方便统一正确答案,这道题可能预先已经给大家写出了一些关键词作为提示.其中这些给出的提示就可以看作是key
  3. 而整个的文本信息就相当于是queryvalue的含义则更抽象,可以比作是你看到这段文本信息后,脑子里浮现的答案信息,
  4. 这里我们又假设大家最开始都不是很聪明,第一次看到这段文本后脑子里基本上浮现的信息就只有提示这些信息,
  5. 因此keyvalue基本是相同的,但是随着我们对这个问题的深入理解,通过我们的思考脑子里想起来的东西原来越多,
  6. 并且能够开始对我们query也就是这段文本,提取关键信息进行表示. 这就是注意力作用的过程, 通过这个过程,
  7. 我们最终脑子里的value发生了变化,
  8. 根据提示key生成了query的关键词表示方法,也就是另外一种特征表示方法.
  9. 刚刚我们说到keyvalue一般情况下默认是相同,与query是不同的,这种是我们一般的注意力输入形式,
  10. 但有一种特殊情况,就是我们querykeyvalue相同,这种情况我们称为自注意力机制,就如同我们的刚刚的例子,
  11. 使用一般注意力机制,是使用不同于给定文本的关键词表示它. 而自注意力机制,
  12. 需要用给定文本自身来表达自己,也就是说你需要从给定文本中抽取关键词来表述它, 相当于对文本自身的一次特征提取.
  • 注意力机制在网络中实现的图形表示:

6.Transformer架构 - 图5

  1. def attention(query, key, value, mask=None, dropout=None):
  2. """注意力机制的实现, 输入分别是query, key, value, mask: 掩码张量,
  3. dropout是nn.Dropout层的实例化对象, 默认为None"""
  4. # 在函数中, 首先取query的最后一维的大小, 一般情况下就等同于我们的词嵌入维度, 命名为d_k
  5. d_k = query.size(-1)
  6. # 按照注意力公式, 将query与key的转置相乘, 这里面key是将最后两个维度进行转置, 再除以缩放系数根号下d_k, 这种计算方法也称为缩放点积注意力计算.
  7. # 得到注意力得分张量scores
  8. scores = torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k)
  9. # 接着判断是否使用掩码张量
  10. if mask is not None:
  11. # 使用tensor的masked_fill方法, 将掩码张量和scores张量每个位置一一比较, 如果掩码张量处为0
  12. # 则对应的scores张量用-1e9这个值来替换, 如下演示
  13. scores = scores.masked_fill(mask == 0, -1e9)
  14. # 对scores的最后一维进行softmax操作, 使用F.softmax方法, 第一个参数是softmax对象, 第二个是目标维度.
  15. # 这样获得最终的注意力张量
  16. p_attn = F.softmax(scores, dim = -1)
  17. # 之后判断是否使用dropout进行随机置0
  18. if dropout is not None:
  19. # 将p_attn传入dropout对象中进行'丢弃'处理
  20. p_attn = dropout(p_attn)
  21. # 最后, 根据公式将p_attn与value张量相乘获得最终的query注意力表示, 同时返回注意力张量
  22. return torch.matmul(p_attn, value), p_attn

多头注意力机制

从多头注意力的结构图中,貌似这个所谓的多个头就是指多组线性变换层,其实并不是,我只有使用了一组线性变化层,即三个变换张量对Q,K,V分别进行线性变换,这些变换不会改变原有张量的尺寸,因此每个变换矩阵都是方阵,得到输出结果后,多头的作用才开始显现,每个头开始从词义层面分割输出的张量,也就是每个头都想获得一组Q,K,V进行注意力机制的计算,但是句子中的每个词的表示只获得一部分,也就是只分割了最后一维的词嵌入向量. 这就是所谓的多头,将每个头的获得的输入送到注意力机制中, 就形成多头注意力机制.

6.Transformer架构 - 图6

作用:

  • 这种结构设计能让每个注意力机制去优化每个词汇的不同特征部分,从而均衡同一种注意力机制可能产生的偏差,让词义拥有来自更多元的表达,实验表明可以从而提升模型效果
  1. # 用于深度拷贝的copy工具包
  2. import copy
  3. # 首先需要定义克隆函数, 因为在多头注意力机制的实现中, 用到多个结构相同的线性层.
  4. # 我们将使用clone函数将他们一同初始化在一个网络层列表对象中. 之后的结构中也会用到该函数.
  5. def clones(module, N):
  6. """用于生成相同网络层的克隆函数, 它的参数module表示要克隆的目标网络层, N代表需要克隆的数量"""
  7. # 在函数中, 我们通过for循环对module进行N次深度拷贝, 使其每个module成为独立的层,
  8. # 然后将其放在nn.ModuleList类型的列表中存放.
  9. return nn.ModuleList([copy.deepcopy(module) for _ in range(N)])
  10. # 我们使用一个类来实现多头注意力机制的处理
  11. class MultiHeadedAttention(nn.Module):
  12. def __init__(self, head, embedding_dim, dropout=0.1):
  13. """在类的初始化时, 会传入三个参数,head代表头数,embedding_dim代表词嵌入的维度,
  14. dropout代表进行dropout操作时置0比率,默认是0.1."""
  15. super(MultiHeadedAttention, self).__init__()
  16. # 在函数中,首先使用了一个测试中常用的assert语句,判断h是否能被d_model整除,
  17. # 这是因为我们之后要给每个头分配等量的词特征.也就是embedding_dim/head个.
  18. assert embedding_dim % head == 0
  19. # 得到每个头获得的分割词向量维度d_k
  20. self.d_k = embedding_dim // head
  21. # 传入头数h
  22. self.head = head
  23. # 然后获得线性层对象,通过nn的Linear实例化,它的内部变换矩阵是embedding_dim x embedding_dim,然后使用clones函数克隆四个,
  24. # 为什么是四个呢,这是因为在多头注意力中,Q,K,V各需要一个,最后拼接的矩阵还需要一个,因此一共是四个.
  25. self.linears = clones(nn.Linear(embedding_dim, embedding_dim), 4)
  26. # self.attn为None,它代表最后得到的注意力张量,现在还没有结果所以为None.
  27. self.attn = None
  28. # 最后就是一个self.dropout对象,它通过nn中的Dropout实例化而来,置0比率为传进来的参数dropout.
  29. self.dropout = nn.Dropout(p=dropout)
  30. def forward(self, query, key, value, mask=None):
  31. """前向逻辑函数, 它的输入参数有四个,前三个就是注意力机制需要的Q, K, V,
  32. 最后一个是注意力机制中可能需要的mask掩码张量,默认是None. """
  33. # 如果存在掩码张量mask
  34. if mask is not None:
  35. # 使用unsqueeze拓展维度
  36. mask = mask.unsqueeze(0)
  37. # 接着,我们获得一个batch_size的变量,他是query尺寸的第1个数字,代表有多少条样本.
  38. batch_size = query.size(0)
  39. # 之后就进入多头处理环节
  40. # 首先利用zip将输入QKV与三个线性层组到一起,然后使用for循环,将输入QKV分别传到线性层中,
  41. # 做完线性变换后,开始为每个头分割输入,这里使用view方法对线性变换的结果进行维度重塑,多加了一个维度h,代表头数,
  42. # 这样就意味着每个头可以获得一部分词特征组成的句子,其中的-1代表自适应维度,
  43. # 计算机会根据这种变换自动计算这里的值.然后对第二维和第三维进行转置操作,
  44. # 为了让代表句子长度维度和词向量维度能够相邻,这样注意力机制才能找到词义与句子位置的关系,
  45. # 从attention函数中可以看到,利用的是原始输入的倒数第一和第二维.这样我们就得到了每个头的输入.
  46. query, key, value = \
  47. [model(x).view(batch_size, -1, self.head, self.d_k).transpose(1, 2)
  48. for model, x in zip(self.linears, (query, key, value))]
  49. # 得到每个头的输入后,接下来就是将他们传入到attention中,
  50. # 这里直接调用我们之前实现的attention函数.同时也将mask和dropout传入其中.
  51. x, self.attn = attention(query, key, value, mask=mask, dropout=self.dropout)
  52. # 通过多头注意力计算后,我们就得到了每个头计算结果组成的4维张量,我们需要将其转换为输入的形状以方便后续的计算,
  53. # 因此这里开始进行第一步处理环节的逆操作,先对第二和第三维进行转置,然后使用contiguous方法,
  54. # 这个方法的作用就是能够让转置后的张量应用view方法,否则将无法直接使用,
  55. # 所以,下一步就是使用view重塑形状,变成和输入形状相同.
  56. x = x.transpose(1, 2).contiguous().view(batch_size, -1, self.head * self.d_k)
  57. # 最后使用线性层列表中的最后一个线性层对输入进行线性变换得到最终的多头注意力结构的输出.
  58. return self.linears[-1](x)

前馈全连接层

  • 在Transformer中前馈全连接层就是具有两层线性层的全连接网络.

作用:

  • 考虑注意力机制可能对复杂过程的拟合程度不够, 通过增加两层网络来增强模型的能力.
  1. # 通过类PositionwiseFeedForward来实现前馈全连接层
  2. class PositionwiseFeedForward(nn.Module):
  3. def __init__(self, d_model, d_ff, dropout=0.1):
  4. """初始化函数有三个输入参数分别是d_model, d_ff,和dropout=0.1,第一个是线性层的输入维度也是第二个线性层的输出维度,
  5. 因为我们希望输入通过前馈全连接层后输入和输出的维度不变. 第二个参数d_ff就是第二个线性层的输入维度和第一个线性层的输出维度.
  6. 最后一个是dropout置0比率."""
  7. super(PositionwiseFeedForward, self).__init__()
  8. # 首先按照我们预期使用nn实例化了两个线性层对象,self.w1和self.w2
  9. # 它们的参数分别是d_model, d_ff和d_ff, d_model
  10. self.w1 = nn.Linear(d_model, d_ff)
  11. self.w2 = nn.Linear(d_ff, d_model)
  12. # 然后使用nn的Dropout实例化了对象self.dropout
  13. self.dropout = nn.Dropout(dropout)
  14. def forward(self, x):
  15. """输入参数为x,代表来自上一层的输出"""
  16. # 首先经过第一个线性层,然后使用Funtional中relu函数进行激活,
  17. # 之后再使用dropout进行随机置0,最后通过第二个线性层w2,返回最终结果.
  18. return self.w2(self.dropout(F.relu(self.w1(x))))

ReLU函数公式: ReLU(x)=max(0, x)

规范化层

它是所有深层网络模型都需要的标准网络层,因为随着网络层数的增加,通过多层的计算后参数可能开始出现过大或过小的情况,这样可能会导致学习过程出现异常,模型可能收敛非常的慢. 因此都会在一定层数后接规范化层进行数值的规范化,使其特征数值在合理范围内.

  1. # 通过LayerNorm实现规范化层的类
  2. class LayerNorm(nn.Module):
  3. def __init__(self, features, eps=1e-6):
  4. """初始化函数有两个参数, 一个是features, 表示词嵌入的维度,
  5. 另一个是eps它是一个足够小的数, 在规范化公式的分母中出现,
  6. 防止分母为0.默认是1e-6."""
  7. super(LayerNorm, self).__init__()
  8. # 根据features的形状初始化两个参数张量a2,和b2,第一个初始化为1张量,
  9. # 也就是里面的元素都是1,第二个初始化为0张量,也就是里面的元素都是0,这两个张量就是规范化层的参数,
  10. # 因为直接对上一层得到的结果做规范化公式计算,将改变结果的正常表征,因此就需要有参数作为调节因子,
  11. # 使其即能满足规范化要求,又能不改变针对目标的表征.最后使用nn.parameter封装,代表他们是模型的参数。
  12. self.a2 = nn.Parameter(torch.ones(features))
  13. self.b2 = nn.Parameter(torch.zeros(features))
  14. # 把eps传到类中
  15. self.eps = eps
  16. def forward(self, x):
  17. """输入参数x代表来自上一层的输出"""
  18. # 在函数中,首先对输入变量x求其最后一个维度的均值,并保持输出维度与输入维度一致.
  19. # 接着再求最后一个维度的标准差,然后就是根据规范化公式,用x减去均值除以标准差获得规范化的结果,
  20. # 最后对结果乘以我们的缩放参数,即a2,*号代表同型点乘,即对应位置进行乘法操作,加上位移参数b2.返回即可.
  21. mean = x.mean(-1, keepdim=True)
  22. std = x.std(-1, keepdim=True)
  23. return self.a2 * (x - mean) / (std + self.eps) + self.b2

子层连接结构

输入到每个子层以及规范化层的过程中,还使用了残差链接(跳跃连接),因此我们把这一部分结构整体叫做子层连接(代表子层及其链接结构),在每个编码器层中,都有两个子层,这两个子层加上周围的链接结构就形成了两个子层连接结构.

6.Transformer架构 - 图7


6.Transformer架构 - 图8

  1. # 使用SublayerConnection来实现子层连接结构的类
  2. class SublayerConnection(nn.Module):
  3. def __init__(self, size, dropout=0.1):
  4. """它输入参数有两个, size以及dropout, size一般是都是词嵌入维度的大小,
  5. dropout本身是对模型结构中的节点数进行随机抑制的比率,
  6. 又因为节点被抑制等效就是该节点的输出都是0,因此也可以把dropout看作是对输出矩阵的随机置0的比率.
  7. """
  8. super(SublayerConnection, self).__init__()
  9. # 实例化了规范化对象self.norm
  10. self.norm = LayerNorm(size)
  11. # 又使用nn中预定义的droupout实例化一个self.dropout对象.
  12. self.dropout = nn.Dropout(p=dropout)
  13. def forward(self, x, sublayer):
  14. """前向逻辑函数中, 接收上一个层或者子层的输入作为第一个参数,
  15. 将该子层连接中的子层函数作为第二个参数"""
  16. # 我们首先对输出进行规范化,然后将结果传给子层处理,之后再对子层进行dropout操作,
  17. # 随机停止一些网络中神经元的作用,来防止过拟合. 最后还有一个add操作,
  18. # 因为存在跳跃连接,所以是将输入x与dropout后的子层输出结果相加作为最终的子层连接输出.
  19. return x + self.dropout(sublayer(self.norm(x)))

编码器层

作为编码器的组成单元, 每个编码器层完成一次对输入的特征提取过程, 即编码过程.

6.Transformer架构 - 图9

  1. # 使用EncoderLayer类实现编码器层
  2. class EncoderLayer(nn.Module):
  3. def __init__(self, size, self_attn, feed_forward, dropout):
  4. """它的初始化函数参数有四个,分别是size,其实就是我们词嵌入维度的大小,它也将作为我们编码器层的大小,
  5. 第二个self_attn,之后我们将传入多头自注意力子层实例化对象, 并且是自注意力机制,
  6. 第三个是feed_froward, 之后我们将传入前馈全连接层实例化对象, 最后一个是置0比率dropout."""
  7. super(EncoderLayer, self).__init__()
  8. # 首先将self_attn和feed_forward传入其中.
  9. self.self_attn = self_attn
  10. self.feed_forward = feed_forward
  11. # 如图所示, 编码器层中有两个子层连接结构, 所以使用clones函数进行克隆
  12. self.sublayer = clones(SublayerConnection(size, dropout), 2)
  13. # 把size传入其中
  14. self.size = size
  15. def forward(self, x, mask):
  16. """forward函数中有两个输入参数,x和mask,分别代表上一层的输出,和掩码张量mask."""
  17. # 里面就是按照结构图左侧的流程. 首先通过第一个子层连接结构,其中包含多头自注意力子层,
  18. # 然后通过第二个子层连接结构,其中包含前馈全连接子层. 最后返回结果.
  19. x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask))
  20. return self.sublayer[1](x, self.feed_forward)

编码器

编码器用于对输入进行指定的特征提取过程, 也称为编码, 由N个编码器层堆叠而成.

6.Transformer架构 - 图10

  1. # 使用Encoder类来实现编码器
  2. class Encoder(nn.Module):
  3. def __init__(self, layer, N):
  4. """初始化函数的两个参数分别代表编码器层和编码器层的个数"""
  5. super(Encoder, self).__init__()
  6. # 首先使用clones函数克隆N个编码器层放在self.layers中
  7. self.layers = clones(layer, N)
  8. # 再初始化一个规范化层, 它将用在编码器的最后面.
  9. self.norm = LayerNorm(layer.size)
  10. def forward(self, x, mask):
  11. """forward函数的输入和编码器层相同, x代表上一层的输出, mask代表掩码张量"""
  12. # 首先就是对我们克隆的编码器层进行循环,每次都会得到一个新的x,
  13. # 这个循环的过程,就相当于输出的x经过了N个编码器层的处理.
  14. # 最后再通过规范化层的对象self.norm进行处理,最后返回结果.
  15. for layer in self.layers:
  16. x = layer(x, mask)
  17. return self.norm(x)

解码器部分:

  • 由N个解码器层堆叠而成
  • 每个解码器层由三个子层连接结构组成
  • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
  • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

6.Transformer架构 - 图11

解码器层

作为解码器的组成单元, 每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程.

  1. # 使用DecoderLayer的类实现解码器层
  2. class DecoderLayer(nn.Module):
  3. def __init__(self, size, self_attn, src_attn, feed_forward, dropout):
  4. """初始化函数的参数有5个, 分别是size,代表词嵌入的维度大小, 同时也代表解码器层的尺寸,
  5. 第二个是self_attn,多头自注意力对象,也就是说这个注意力机制需要Q=K=V,
  6. 第三个是src_attn,多头注意力对象,这里Q!=K=V, 第四个是前馈全连接层对象,最后就是droupout置0比率.
  7. """
  8. super(DecoderLayer, self).__init__()
  9. # 在初始化函数中, 主要就是将这些输入传到类中
  10. self.size = size
  11. self.self_attn = self_attn
  12. self.src_attn = src_attn
  13. self.feed_forward = feed_forward
  14. # 按照结构图使用clones函数克隆三个子层连接对象.
  15. self.sublayer = clones(SublayerConnection(size, dropout), 3)
  16. def forward(self, x, memory, source_mask, target_mask):
  17. """forward函数中的参数有4个,分别是来自上一层的输入x,
  18. 来自编码器层的语义存储变量mermory, 以及源数据掩码张量和目标数据掩码张量.
  19. """
  20. # 将memory表示成m方便之后使用
  21. m = memory
  22. # 将x传入第一个子层结构,第一个子层结构的输入分别是x和self-attn函数,因为是自注意力机制,所以Q,K,V都是x,
  23. # 最后一个参数是目标数据掩码张量,这时要对目标数据进行遮掩,因为此时模型可能还没有生成任何目标数据,
  24. # 比如在解码器准备生成第一个字符或词汇时,我们其实已经传入了第一个字符以便计算损失,
  25. # 但是我们不希望在生成第一个字符时模型能利用这个信息,因此我们会将其遮掩,同样生成第二个字符或词汇时,
  26. # 模型只能使用第一个字符或词汇信息,第二个字符以及之后的信息都不允许被模型使用.
  27. x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, target_mask))
  28. # 接着进入第二个子层,这个子层中常规的注意力机制,q是输入x; k,v是编码层输出memory,
  29. # 同样也传入source_mask,但是进行源数据遮掩的原因并非是抑制信息泄漏,而是遮蔽掉对结果没有意义的字符而产生的注意力值,
  30. # 以此提升模型效果和训练速度. 这样就完成了第二个子层的处理.
  31. x = self.sublayer[1](x, lambda x: self.src_attn(x, m, m, source_mask))
  32. # 最后一个子层就是前馈全连接子层,经过它的处理后就可以返回结果.这就是我们的解码器层结构.
  33. return self.sublayer[2](x, self.feed_forward)

解码器

  1. # 使用类Decoder来实现解码器
  2. class Decoder(nn.Module):
  3. def __init__(self, layer, N):
  4. """初始化函数的参数有两个,第一个就是解码器层layer,第二个是解码器层的个数N."""
  5. super(Decoder, self).__init__()
  6. # 首先使用clones方法克隆了N个layer,然后实例化了一个规范化层.
  7. # 因为数据走过了所有的解码器层后最后要做规范化处理.
  8. self.layers = clones(layer, N)
  9. self.norm = LayerNorm(layer.size)
  10. def forward(self, x, memory, source_mask, target_mask):
  11. """forward函数中的参数有4个,x代表目标数据的嵌入表示,memory是编码器层的输出,
  12. source_mask, target_mask代表源数据和目标数据的掩码张量"""
  13. # 然后就是对每个层进行循环,当然这个循环就是变量x通过每一个层的处理,
  14. # 得出最后的结果,再进行一次规范化返回即可.
  15. for layer in self.layers:
  16. x = layer(x, memory, source_mask, target_mask)
  17. return self.norm(x)

输出部分包含:

  • 线性层
  • softmax层

6.Transformer架构 - 图12

线性层的作用

  • 通过对上一步的线性变化得到指定维度的输出, 也就是转换维度的作用.

softmax层的作用

  • 使最后一维的向量中的数字缩放到0-1的概率值域内, 并满足他们的和为1.
  1. # nn.functional工具包装载了网络层中那些只进行计算, 而没有参数的层
  2. import torch.nn.functional as F
  3. # 将线性层和softmax计算层一起实现, 因为二者的共同目标是生成最后的结构
  4. # 因此把类的名字叫做Generator, 生成器类
  5. class Generator(nn.Module):
  6. def __init__(self, d_model, vocab_size):
  7. """初始化函数的输入参数有两个, d_model代表词嵌入维度, vocab_size代表词表大小."""
  8. super(Generator, self).__init__()
  9. # 首先就是使用nn中的预定义线性层进行实例化, 得到一个对象self.project等待使用,
  10. # 这个线性层的参数有两个, 就是初始化函数传进来的两个参数: d_model, vocab_size
  11. self.project = nn.Linear(d_model, vocab_size)
  12. def forward(self, x):
  13. """前向逻辑函数中输入是上一层的输出张量x"""
  14. # 在函数中, 首先使用上一步得到的self.project对x进行线性变化,
  15. # 然后使用F中已经实现的log_softmax进行的softmax处理.
  16. # 在这里之所以使用log_softmax是因为和我们这个pytorch版本的损失函数实现有关, 在其他版本中将修复.
  17. # log_softmax就是对softmax的结果又取了对数, 因为对数函数是单调递增函数,
  18. # 因此对最终我们取最大的概率值没有影响. 最后返回结果即可.
  19. return F.log_softmax(self.project(x), dim=-1)

模型构建

编码器-解码器结构的代码实现

  1. # 使用EncoderDecoder类来实现编码器-解码器结构
  2. class EncoderDecoder(nn.Module):
  3. def __init__(self, encoder, decoder, source_embed, target_embed, generator):
  4. """初始化函数中有5个参数, 分别是编码器对象, 解码器对象,
  5. 源数据嵌入函数, 目标数据嵌入函数, 以及输出部分的类别生成器对象
  6. """
  7. super(EncoderDecoder, self).__init__()
  8. # 将参数传入到类中
  9. self.encoder = encoder
  10. self.decoder = decoder
  11. self.src_embed = source_embed
  12. self.tgt_embed = target_embed
  13. self.generator = generator
  14. def forward(self, source, target, source_mask, target_mask):
  15. """在forward函数中,有四个参数, source代表源数据, target代表目标数据,
  16. source_mask和target_mask代表对应的掩码张量"""
  17. # 在函数中, 将source, source_mask传入编码函数, 得到结果后,
  18. # 与source_mask,target,和target_mask一同传给解码函数.
  19. return self.decode(self.encode(source, source_mask), source_mask,
  20. target, target_mask)
  21. def encode(self, source, source_mask):
  22. """编码函数, 以source和source_mask为参数"""
  23. # 使用src_embed对source做处理, 然后和source_mask一起传给self.encoder
  24. return self.encoder(self.src_embed(source), source_mask)
  25. def decode(self, memory, source_mask, target, target_mask):
  26. """解码函数, 以memory即编码器的输出, source_mask, target, target_mask为参数"""
  27. # 使用tgt_embed对target做处理, 然后和source_mask, target_mask, memory一起传给self.decoder
  28. return self.decoder(self.tgt_embed(target), memory, source_mask, target_mask)

Tansformer模型构建过程的代码

  1. def make_model(source_vocab, target_vocab, N=6,
  2. d_model=512, d_ff=2048, head=8, dropout=0.1):
  3. """该函数用来构建模型, 有7个参数,分别是源数据特征(词汇)总数,目标数据特征(词汇)总数,
  4. 编码器和解码器堆叠数,词向量映射维度,前馈全连接网络中变换矩阵的维度,
  5. 多头注意力结构中的多头数,以及置零比率dropout."""
  6. # 首先得到一个深度拷贝命令,接下来很多结构都需要进行深度拷贝,
  7. # 来保证他们彼此之间相互独立,不受干扰.
  8. c = copy.deepcopy
  9. # 实例化了多头注意力类,得到对象attn
  10. attn = MultiHeadedAttention(head, d_model)
  11. # 然后实例化前馈全连接类,得到对象ff
  12. ff = PositionwiseFeedForward(d_model, d_ff, dropout)
  13. # 实例化位置编码类,得到对象position
  14. position = PositionalEncoding(d_model, dropout)
  15. # 根据结构图, 最外层是EncoderDecoder,在EncoderDecoder中,
  16. # 分别是编码器层,解码器层,源数据Embedding层和位置编码组成的有序结构,
  17. # 目标数据Embedding层和位置编码组成的有序结构,以及类别生成器层.
  18. # 在编码器层中有attention子层以及前馈全连接子层,
  19. # 在解码器层中有两个attention子层以及前馈全连接层.
  20. model = EncoderDecoder(
  21. Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout), N),
  22. Decoder(DecoderLayer(d_model, c(attn), c(attn),
  23. c(ff), dropout), N),
  24. nn.Sequential(Embeddings(d_model, source_vocab), c(position)),
  25. nn.Sequential(Embeddings(d_model, target_vocab), c(position)),
  26. Generator(d_model, target_vocab))
  27. # 模型结构完成后,接下来就是初始化模型中的参数,比如线性层中的变换矩阵
  28. # 这里一但判断参数的维度大于1,则会将其初始化成一个服从均匀分布的矩阵,
  29. for p in model.parameters():
  30. if p.dim() > 1:
  31. nn.init.xavier_uniform(p)
  32. return model

调用:

  1. if __name__ == '__main__':
  2. res = make_model(source_vocab, target_vocab, N)
  3. print(res)

模型基本测试运行

copy任务介绍:

  • 任务描述: 针对数字序列进行学习, 学习的最终目标是使输出与输入的序列相同. 如输入[1, 5, 8, 9, 3], 输出也是[1, 5, 8, 9, 3].
  • 任务意义: copy任务在模型基础测试中具有重要意义,因为copy操作对于模型来讲是一条明显规律, 因此模型能否在短时间内,小数据集中学会它,可以帮助我们断定模型所有过程是否正常,是否已具备基本学习能力.

使用copy任务进行模型基本测试的四步曲

  • 第一步: 构建数据集生成器
  • 第二步: 获得Transformer模型及其优化器和损失函数
  • 第三步: 运行模型进行训练和评估
  • 第四步: 使用模型进行贪婪解码

构建数据集生成器

  1. # 导入工具包Batch, 它能够对原始样本数据生成对应批次的掩码张量
  2. from pyitcast.transformer_utils import Batch
  3. def data_generator(V, batch, num_batch):
  4. """该函数用于随机生成copy任务的数据, 它的三个输入参数是V: 随机生成数字的最大值+1,
  5. batch: 每次输送给模型更新一次参数的数据量, num_batch: 一共输送num_batch次完成一轮
  6. """
  7. # 使用for循环遍历nbatches
  8. for i in range(num_batch):
  9. # 在循环中使用np的random.randint方法随机生成[1, V)的整数,
  10. # 分布在(batch, 10)形状的矩阵中, 然后再把numpy形式转换称torch中的tensor.
  11. data = torch.from_numpy(np.random.randint(1, V, size=(batch, 10)))
  12. # 接着使数据矩阵中的第一列数字都为1, 这一列也就成为了起始标志列,
  13. # 当解码器进行第一次解码的时候, 会使用起始标志列作为输入.
  14. data[:, 0] = 1
  15. # 因为是copy任务, 所有source与target是完全相同的, 且数据样本作用变量不需要求梯度
  16. # 因此requires_grad设置为False
  17. source = Variable(data, requires_grad=False)
  18. target = Variable(data, requires_grad=False)
  19. # 使用Batch对source和target进行对应批次的掩码张量生成, 最后使用yield返回
  20. yield Batch(source, target)

获得Transformer模型及其优化器和损失函数

  1. # 导入优化器工具包get_std_opt, 该工具用于获得标准的针对Transformer模型的优化器
  2. # 该标准优化器基于Adam优化器, 使其对序列到序列的任务更有效.
  3. from pyitcast.transformer_utils import get_std_opt
  4. # 导入标签平滑工具包, 该工具用于标签平滑, 标签平滑的作用就是小幅度的改变原有标签值的值域
  5. # 因为在理论上即使是人工的标注数据也可能并非完全正确, 会受到一些外界因素的影响而产生一些微小的偏差
  6. # 因此使用标签平滑来弥补这种偏差, 减少模型对某一条规律的绝对认知, 以防止过拟合. 通过下面示例了解更多.
  7. from pyitcast.transformer_utils import LabelSmoothing
  8. # 导入损失计算工具包, 该工具能够使用标签平滑后的结果进行损失的计算,
  9. # 损失的计算方法可以认为是交叉熵损失函数.
  10. from pyitcast.transformer_utils import SimpleLossCompute
  11. # 使用make_model获得model
  12. model = make_model(V, V, N=2)
  13. # 使用get_std_opt获得模型优化器
  14. model_optimizer = get_std_opt(model)
  15. # 使用LabelSmoothing获得标签平滑对象
  16. criterion = LabelSmoothing(size=V, padding_idx=0, smoothing=0.0)
  17. # 使用SimpleLossCompute获得利用标签平滑结果的损失计算方法
  18. loss = SimpleLossCompute(model.generator, criterion, model_optimizer)

运行模型进行训练和评估

  1. # 导入模型单轮训练工具包run_epoch, 该工具将对模型使用给定的损失函数计算方法进行单轮参数更新.
  2. # 并打印每轮参数更新的损失结果.
  3. from pyitcast.transformer_utils import run_epoch
  4. def run(model, loss, epochs=10):
  5. """模型训练函数, 共有三个参数, model代表将要进行训练的模型
  6. loss代表使用的损失计算方法, epochs代表模型训练的轮数"""
  7. # 遍历轮数
  8. for epoch in range(epochs):
  9. # 模型使用训练模式, 所有参数将被更新
  10. model.train()
  11. # 训练时, batch_size是20
  12. run_epoch(data_generator(V, 8, 20), model, loss)
  13. # 模型使用评估模式, 参数将不会变化
  14. model.eval()
  15. # 评估时, batch_size是5
  16. run_epoch(data_generator(V, 8, 5), model, loss)

使用模型进行贪婪解码

  1. # 导入贪婪解码工具包greedy_decode, 该工具将对最终结进行贪婪解码
  2. # 贪婪解码的方式是每次预测都选择概率最大的结果作为输出,
  3. # 它不一定能获得全局最优性, 但却拥有最高的执行效率.
  4. from pyitcast.transformer_utils import greedy_decode
  5. def run(model, loss, epochs=10):
  6. for epoch in range(epochs):
  7. model.train()
  8. run_epoch(data_generator(V, 8, 20), model, loss)
  9. model.eval()
  10. run_epoch(data_generator(V, 8, 5), model, loss)
  11. # 模型进入测试模式
  12. model.eval()
  13. # 假定的输入张量
  14. source = Variable(torch.LongTensor([[1,3,2,5,4,6,7,8,9,10]]))
  15. # 定义源数据掩码张量, 因为元素都是1, 在我们这里1代表不遮掩
  16. # 因此相当于对源数据没有任何遮掩.
  17. source_mask = Variable(torch.ones(1, 1, 10))
  18. # 最后将model, src, src_mask, 解码的最大长度限制max_len, 默认为10
  19. # 以及起始标志数字, 默认为1, 我们这里使用的也是1
  20. result = greedy_decode(model, source, source_mask, max_len=10, start_symbol=1)
  21. print(result)
  22. if __name__ == '__main__':
  23. run(model, loss)