第一章:Transformer背景介绍

1.1 Transformer的诞生


2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!


论文地址: https://arxiv.org/pdf/1810.04805.pdf


而在BERT中发挥重要作用的结构就是Transformer, 之后又相继出现XLNET,roBERT等模型击败了BERT,但是他们的核心没有变,仍然是:Transformer.


1.2 Transformer的优势


相比之前占领市场的LSTM和GRU模型,Transformer有两个显著的优势:

1, Transformer能够利用分布式GPU进行并行训练,提升模型训练效率.
2, 在分析预测更长的文本时, 捕捉间隔较长的语义关联效果更好.


下面是一张在测评比较图:
transformer - 图1


1.3 Transformer的市场


在著名的SOTA机器翻译榜单上, 几乎所有排名靠前的模型都使用Transformer,
transformer - 图2
其基本上可以看作是工业界的风向标, 市场空间自然不必多说!


第二章:Transformer架构解析

2.1 认识Transformer架构


学习目标

  • 了解Transformer模型的作用.
  • 了解Transformer总体架构图中各个组成部分的名称.

Transformer模型的作用

  • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务, 如机器翻译, 文本生成等. 同时又可以构建预训练语言模型,用于不同任务的迁移学习.

  • 声明:
    • 在接下来的架构分析中, 我们将假设使用Transformer模型架构处理从一种语言文本到另一种语言文本的翻译工作, 因此很多命名方式遵循NLP中的规则. 比如: Embeddding层将称作文本嵌入层, Embedding层产生的张量称为词嵌入张量, 它的最后一维将称作词向量等.

Transformer总体架构图

transformer - 图3


  • Transformer总体架构可分为四个部分:
    • 输入部分
    • 输出部分
    • 编码器部分
    • 解码器部分

  • 输入部分包含:
    • 源文本嵌入层及其位置编码器
    • 目标文本嵌入层及其位置编码器

transformer - 图4


  • 输出部分包含:
    • 线性层
    • softmax层

transformer - 图5


  • 编码器部分:
    • 由N个编码器层堆叠而成
    • 每个编码器层由两个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

transformer - 图6


  • 解码器部分:
    • 由N个解码器层堆叠而成
    • 每个解码器层由三个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
    • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

transformer - 图7


小节总结

  • 学习了Transformer模型的作用:
    • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务, 如机器翻译, 文本生成等. 同时又可以构建预训练语言模型,用于不同任务的迁移学习.

  • Transformer总体架构可分为四个部分:
    • 输入部分
    • 输出部分
    • 编码器部分
    • 解码器部分

  • 输入部分包含:
    • 源文本嵌入层及其位置编码器
    • 目标文本嵌入层及其位置编码器

  • 输出部分包含:
    • 线性层
    • softmax处理器

  • 编码器部分:
    • 由N个编码器层堆叠而成
    • 每个编码器层由两个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

  • 解码器部分:
    • 由N个解码器层堆叠而成
    • 每个解码器层由三个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
    • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接



2.2 输入部分实现


学习目标

  • 了解文本嵌入层和位置编码的作用.
  • 掌握文本嵌入层和位置编码的实现过程.

  • 输入部分包含:
    • 源文本嵌入层及其位置编码器
    • 目标文本嵌入层及其位置编码器

transformer - 图8


文本嵌入层的作用

  • 无论是源文本嵌入还是目标文本嵌入,都是为了将文本中词汇的数字表示转变为向量表示, 希望在这样的高维空间捕捉词汇间的关系.

  • pytorch 0.3.0及其必备工具包的安装:


# 使用pip安装的工具包包括pytorch-0.3.0, numpy, matplotlib, seaborn
pip install http://download.pytorch.org/whl/cu80/torch-0.3.0.post4-cp36-cp36m-linux_x86_64.whl numpy matplotlib seaborn

MAC系统安装, python版本<=3.6
pip install torch==0.3.0.post4 numpy matplotlib seaborn


  • 文本嵌入层的代码分析:


# 导入必备的工具包
import torch

预定义的网络层torch.nn, 工具开发者已经帮助我们开发好的一些常用层,
# 比如,卷积层, lstm层, embedding层等, 不需要我们再重新造轮子.
import torch.nn as nn

数学计算工具包
import math

torch中变量封装函数Variable.
from torch.autograd import Variable

定义Embeddings类来实现文本嵌入层,这里s说明代表两个一模一样的嵌入层, 他们共享参数.
# 该类继承nn.Module, 这样就有标准层的一些功能, 这里我们也可以理解为一种模式, 我们自己实现的所有层都会这样去写.
class Embeddings(nn.Module):
def init(self, dmodel, vocab):
“””类的初始化函数, 有两个参数, dmodel: 指词嵌入的维度, vocab: 指词表的大小.”””
# 接着就是使用super的方式指明继承nn.Module的初始化函数, 我们自己实现的所有层都会这样去写.
super(Embeddings, self).__init
()
# 之后就是调用nn中的预定义层Embedding, 获得一个词嵌入对象self.lut
self.lut = nn.Embedding(vocab, d_model)
# 最后就是将d_model传入类中
self.d_model = d_model

  1. def forward(self, x):<br /> """可以将其理解为该层的前向传播逻辑,所有层中都会有此函数<br /> 当传给该类的实例化对象参数时, 自动调用该类函数<br /> 参数x: 因为Embedding层是首层, 所以代表输入给模型的文本通过词汇映射后的张量"""
  2. # 将x传给self.lut并与根号下self.d_model相乘作为结果返回<br /> return self.lut(x) * math.sqrt(self.d_model)
  • nn.Embedding演示:


>>> embedding = nn.Embedding(10, 3)
>>> input = torch.LongTensor([[1,2,4,5],[4,3,2,9]])
>>> embedding(input)
tensor([[[-0.0251, -1.6902, 0.7172],
[-0.6431, 0.0748, 0.6969],
[ 1.4970, 1.3448, -0.9685],
[-0.3677, -2.7265, -0.1685]],

  1. [[ 1.4970, 1.3448, -0.9685],<br /> [ 0.4362, -0.4004, 0.9400],<br /> [-0.6431, 0.0748, 0.6969],<br /> [ 0.9124, -2.3616, 1.1151]]])

embedding = nn.Embedding(10, 3, padding_idx=0)
>>> input = torch.LongTensor([[0,2,0,5]])
>>> embedding(input)
tensor([[[ 0.0000, 0.0000, 0.0000],
[ 0.1535, -2.0309, 0.9315],
[ 0.0000, 0.0000, 0.0000],
[-0.1655, 0.9897, 0.0635]]])


  • 实例化参数:


# 词嵌入维度是512维
d_model = 512

词表大小是1000
vocab = 1000

  • 输入参数:


# 输入x是一个使用Variable封装的长整型张量, 形状是2 x 4
x = Variable(torch.LongTensor([[100,2,421,508],[491,998,1,221]]))


  • 调用:


emb = Embeddings(d_model, vocab)
embr = emb(x)
print(“embr:”, embr)


  • 输出效果:


embr: Variable containing:
( 0 ,.,.) =
35.9321 3.2582 -17.7301 … 3.4109 13.8832 39.0272
8.5410 -3.5790 -12.0460 … 40.1880 36.6009 34.7141
-17.0650 -1.8705 -20.1807 … -12.5556 -34.0739 35.6536
20.6105 4.4314 14.9912 … -0.1342 -9.9270 28.6771

( 1 ,.,.) =
27.7016 16.7183 46.6900 … 17.9840 17.2525 -3.9709
3.0645 -5.5105 10.8802 … -13.0069 30.8834 -38.3209
33.1378 -32.1435 -3.9369 … 15.6094 -29.7063 40.1361
-31.5056 3.3648 1.4726 … 2.8047 -9.6514 -23.4909
[torch.FloatTensor of size 2x4x512]


位置编码器的作用

  • 因为在Transformer的编码器结构中, 并没有针对词汇位置信息的处理,因此需要在Embedding层后加入位置编码器,将词汇位置不同可能会产生不同语义的信息加入到词嵌入张量中, 以弥补位置信息的缺失.

  • 位置编码器的代码分析:


# 定义位置编码器类, 我们同样把它看做一个层, 因此会继承nn.Module
class PositionalEncoding(nn.Module):
def init(self, dmodel, dropout, maxlen=5000):
“””位置编码器类的初始化函数, 共有三个参数, 分别是d_model: 词嵌入维度,
dropout: 置0比率, max_len: 每个句子的最大长度”””
super(PositionalEncoding, self).__init
()

  1. # 实例化nn中预定义的Dropout层, 并将dropout传入其中, 获得对象self.dropout<br /> self.dropout = nn.Dropout(p=dropout)
  2. # 初始化一个位置编码矩阵, 它是一个0阵,矩阵的大小是max_len x d_model.<br /> pe = torch.zeros(max_len, d_model)
  3. # 初始化一个绝对位置矩阵, 在我们这里,词汇的绝对位置就是用它的索引去表示. <br /> # 所以我们首先使用arange方法获得一个连续自然数向量,然后再使用unsqueeze方法拓展向量维度使其成为矩阵, <br /> # 又因为参数传的是1,代表矩阵拓展的位置,会使向量变成一个max_len x 1 的矩阵, <br /> position = torch.arange(0, max_len).unsqueeze(1)
  4. # 绝对位置矩阵初始化之后,接下来就是考虑如何将这些位置信息加入到位置编码矩阵中,<br /> # 最简单思路就是先将max_len x 1的绝对位置矩阵, 变换成max_len x d_model形状,然后覆盖原来的初始位置编码矩阵即可, <br /> # 要做这种矩阵变换,就需要一个1xd_model形状的变换矩阵div_term,我们对这个变换矩阵的要求除了形状外,<br /> # 还希望它能够将自然数的绝对位置编码缩放成足够小的数字,有助于在之后的梯度下降过程中更快的收敛. 这样我们就可以开始初始化这个变换矩阵了.<br /> # 首先使用arange获得一个自然数矩阵, 但是细心的同学们会发现, 我们这里并没有按照预计的一样初始化一个1xd_model的矩阵, <br /> # 而是有了一个跳跃,只初始化了一半即1xd_model/2 的矩阵。 为什么是一半呢,其实这里并不是真正意义上的初始化了一半的矩阵,<br /> # 我们可以把它看作是初始化了两次,而每次初始化的变换矩阵会做不同的处理,第一次初始化的变换矩阵分布在正弦波上, 第二次初始化的变换矩阵分布在余弦波上, <br /> # 并把这两个矩阵分别填充在位置编码矩阵的偶数和奇数位置上,组成最终的位置编码矩阵.<br /> div_term = torch.exp(torch.arange(0, d_model, 2) *<br /> -(math.log(10000.0) / d_model))<br /> pe[:, 0::2] = torch.sin(position * div_term)<br /> pe[:, 1::2] = torch.cos(position * div_term)
  5. # 这样我们就得到了位置编码矩阵pe, pe现在还只是一个二维矩阵,要想和embedding的输出(一个三维张量)相加,<br /> # 就必须拓展一个维度,所以这里使用unsqueeze拓展维度.<br /> pe = pe.unsqueeze(0)
  6. # 最后把pe位置编码矩阵注册成模型的buffer,什么是buffer呢,<br /> # 我们把它认为是对模型效果有帮助的,但是却不是模型结构中超参数或者参数,不需要随着优化步骤进行更新的增益对象. <br /> # 注册之后我们就可以在模型保存后重加载时和模型结构与参数一同被加载.<br /> self.register_buffer('pe', pe)
  7. def forward(self, x):<br /> """forward函数的参数是x, 表示文本序列的词嵌入表示"""<br /> # 在相加之前我们对pe做一些适配工作, 将这个三维张量的第二维也就是句子最大长度的那一维将切片到与输入的x的第二维相同即x.size(1),<br /> # 因为我们默认max_len为5000一般来讲实在太大了,很难有一条句子包含5000个词汇,所以要进行与输入张量的适配. <br /> # 最后使用Variable进行封装,使其与x的样式相同,但是它是不需要进行梯度求解的,因此把requires_grad设置成false.<br /> x = x + Variable(self.pe[:, :x.size(1)],<br /> requires_grad=False)<br /> # 最后使用self.dropout对象进行'丢弃'操作, 并返回结果.<br /> return self.dropout(x)
  • nn.Dropout演示:


>>> m = nn.Dropout(p=0.2)
>>> input = torch.randn(4, 5)
>>> output = m(input)
>>> output
Variable containing:
0.0000 -0.5856 -1.4094 0.0000 -1.0290
2.0591 -1.3400 -1.7247 -0.9885 0.1286
0.5099 1.3715 0.0000 2.2079 -0.5497
-0.0000 -0.7839 -1.2434 -0.1222 1.2815
[torch.FloatTensor of size 4x5]

  • torch.unsqueeze演示:


>>> x = torch.tensor([1, 2, 3, 4])
>>> torch.unsqueeze(x, 0)
tensor([[ 1, 2, 3, 4]])
>>> torch.unsqueeze(x, 1)
tensor([[ 1],
[ 2],
[ 3],
[ 4]])


  • 实例化参数:


# 词嵌入维度是512维
d_model = 512

置0比率为0.1
dropout = 0.1

句子最大长度
max_len=60


  • 输入参数:


# 输入x是Embedding层的输出的张量, 形状是2 x 4 x 512
x = embr
Variable containing:
( 0 ,.,.) =
35.9321 3.2582 -17.7301 … 3.4109 13.8832 39.0272
8.5410 -3.5790 -12.0460 … 40.1880 36.6009 34.7141
-17.0650 -1.8705 -20.1807 … -12.5556 -34.0739 35.6536
20.6105 4.4314 14.9912 … -0.1342 -9.9270 28.6771

( 1 ,.,.) =
27.7016 16.7183 46.6900 … 17.9840 17.2525 -3.9709
3.0645 -5.5105 10.8802 … -13.0069 30.8834 -38.3209
33.1378 -32.1435 -3.9369 … 15.6094 -29.7063 40.1361
-31.5056 3.3648 1.4726 … 2.8047 -9.6514 -23.4909
[torch.FloatTensor of size 2x4x512]


  • 调用:


pe = PositionalEncoding(d_model, dropout, max_len)
pe_result = pe(x)
print(“pe_result:”, pe_result)


  • 输出效果:


pe_result: Variable containing:
( 0 ,.,.) =
-19.7050 0.0000 0.0000 … -11.7557 -0.0000 23.4553
-1.4668 -62.2510 -2.4012 … 66.5860 -24.4578 -37.7469
9.8642 -41.6497 -11.4968 … -21.1293 -42.0945 50.7943
0.0000 34.1785 -33.0712 … 48.5520 3.2540 54.1348

( 1 ,.,.) =
7.7598 -21.0359 15.0595 … -35.6061 -0.0000 4.1772
-38.7230 8.6578 34.2935 … -43.3556 26.6052 4.3084
24.6962 37.3626 -26.9271 … 49.8989 0.0000 44.9158
-28.8435 -48.5963 -0.9892 … -52.5447 -4.1475 -3.0450
[torch.FloatTensor of size 2x4x512]


  • 绘制词汇向量中特征的分布曲线:


import matplotlib.pyplot as plt

创建一张15 x 5大小的画布
plt.figure(figsize=(15, 5))

实例化PositionalEncoding类得到pe对象, 输入参数是20和0
pe = PositionalEncoding(20, 0)

然后向pe传入被Variable封装的tensor, 这样pe会直接执行forward函数,
# 且这个tensor里的数值都是0, 被处理后相当于位置编码张量
y = pe(Variable(torch.zeros(1, 100, 20)))

然后定义画布的横纵坐标, 横坐标到100的长度, 纵坐标是某一个词汇中的某维特征在不同长度下对应的值
# 因为总共有20维之多, 我们这里只查看4,5,6,7维的值.
plt.plot(np.arange(100), y[0, :, 4:8].data.numpy())

在画布上填写维度提示信息
plt.legend([“dim %d”%p for p in [4,5,6,7]])

  • 输出效果:

transformer - 图9

  • 效果分析:
    • 每条颜色的曲线代表某一个词汇中的特征在不同位置的含义.
    • 保证同一词汇随着所在位置不同它对应位置嵌入向量会发生变化.
    • 正弦波和余弦波的值域范围都是1到-1这又很好的控制了嵌入数值的大小, 有助于梯度的快速计算.

小节总结

  • 学习了文本嵌入层的作用:
    • 无论是源文本嵌入还是目标文本嵌入,都是为了将文本中词汇的数字表示转变为向量表示, 希望在这样的高维空间捕捉词汇间的关系.

  • 学习并实现了文本嵌入层的类: Embeddings
    • 初始化函数以d_model, 词嵌入维度, 和vocab, 词汇总数为参数, 内部主要使用了nn中的预定层Embedding进行词嵌入.
    • 在forward函数中, 将输入x传入到Embedding的实例化对象中, 然后乘以一个根号下d_model进行缩放, 控制数值大小.
    • 它的输出是文本嵌入后的结果.

  • 学习了位置编码器的作用:
    • 因为在Transformer的编码器结构中, 并没有针对词汇位置信息的处理,因此需要在Embedding层后加入位置编码器,将词汇位置不同可能会产生不同语义的信息加入到词嵌入张量中, 以弥补位置信息的缺失.

  • 学习并实现了位置编码器的类: PositionalEncoding
    • 初始化函数以d_model, dropout, max_len为参数, 分别代表d_model: 词嵌入维度, dropout: 置0比率, max_len: 每个句子的最大长度.
    • forward函数中的输入参数为x, 是Embedding层的输出.
    • 最终输出一个加入了位置编码信息的词嵌入张量.

  • 实现了绘制词汇向量中特征的分布曲线:
    • 保证同一词汇随着所在位置不同它对应位置嵌入向量会发生变化.
    • 正弦波和余弦波的值域范围都是1到-1, 这又很好的控制了嵌入数值的大小, 有助于梯度的快速计算.



2.3 编码器部分实现


学习目标

  • 了解编码器中各个组成部分的作用.
  • 掌握编码器中各个组成部分的实现过程.

  • 编码器部分:
    • 由N个编码器层堆叠而成
    • 每个编码器层由两个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

transformer - 图10


2.3.1 掩码张量


  • 学习目标:
    • 了解什么是掩码张量以及它的作用.
    • 掌握生成掩码张量的实现过程.


  • 什么是掩码张量:
    • 掩代表遮掩,码就是我们张量中的数值,它的尺寸不定,里面一般只有1和0的元素,代表位置被遮掩或者不被遮掩,至于是0位置被遮掩还是1位置被遮掩可以自定义,因此它的作用就是让另外一个张量中的一些数值被遮掩,也可以说被替换, 它的表现形式是一个张量.

  • 掩码张量的作用:
    • 在transformer中, 掩码张量的主要作用在应用attention(将在下一小节讲解)时,有一些生成的attention张量中的值计算有可能已知了未来信息而得到的,未来信息被看到是因为训练时会把整个输出结果都一次性进行Embedding,但是理论上解码器的的输出却不是一次就能产生最终结果的,而是一次次通过上一次结果综合得出的,因此,未来的信息可能被提前利用. 所以,我们会进行遮掩. 关于解码器的有关知识将在后面的章节中讲解.

  • 生成掩码张量的代码分析:


def subsequent_mask(size):
“””生成向后遮掩的掩码张量, 参数size是掩码张量最后两个维度的大小, 它的最后两维形成一个方阵”””
# 在函数中, 首先定义掩码张量的形状
attn_shape = (1, size, size)

  1. # 然后使用np.ones方法向这个形状中添加1元素,形成上三角阵, 最后为了节约空间, <br /> # 再使其中的数据类型变为无符号8位整形unit8 <br /> subsequent_mask = np.triu(np.ones(attn_shape), k=1).astype('uint8')
  2. # 最后将numpy类型转化为torch中的tensor, 内部做一个1 - 的操作, <br /> # 在这个其实是做了一个三角阵的反转, subsequent_mask中的每个元素都会被1减, <br /> # 如果是0, subsequent_mask中的该位置由0变成1<br /> # 如果是1, subsequent_mask中的该位置由1变成0 <br /> return torch.from_numpy(1 - subsequent_mask)

  • np.triu演示:


>>> np.triu([[1,2,3],[4,5,6],[7,8,9],[10,11,12]], k=-1)
array([[ 1, 2, 3],
[ 4, 5, 6],
[ 0, 8, 9],
[ 0, 0, 12]])

np.triu([[1,2,3],[4,5,6],[7,8,9],[10,11,12]], k=0)
array([[ 1, 2, 3],
[ 0, 5, 6],
[ 0, 0, 9],
[ 0, 0, 0]])

np.triu([[1,2,3],[4,5,6],[7,8,9],[10,11,12]], k=1)
array([[ 0, 2, 3],
[ 0, 0, 6],
[ 0, 0, 0],
[ 0, 0, 0]])


  • 输入实例:


# 生成的掩码张量的最后两维的大小
size = 5


  • 调用:


sm = subsequent_mask(size)
print(“sm:”, sm)


  • 输出效果:


# 最后两维形成一个下三角阵
sm: (0 ,.,.) =
1 0 0 0 0
1 1 0 0 0
1 1 1 0 0
1 1 1 1 0
1 1 1 1 1
[torch.ByteTensor of size 1x5x5]


  • 掩码张量的可视化:


plt.figure(figsize=(5,5))
plt.imshow(subsequent_mask(20)[0])


  • 输出效果:

transformer - 图11


  • 效果分析:
    • 通过观察可视化方阵, 黄色是1的部分, 这里代表被遮掩, 紫色代表没有被遮掩的信息, 横坐标代表目标词汇的位置, 纵坐标代表可查看的位置;
    • 我们看到, 在0的位置我们一看望过去都是黄色的, 都被遮住了,1的位置一眼望过去还是黄色, 说明第一次词还没有产生, 从第二个位置看过去, 就能看到位置1的词, 其他位置看不到, 以此类推.

  • 2.3.1 掩码张量总结:
    • 学习了什么是掩码张量:
      • 掩代表遮掩,码就是我们张量中的数值,它的尺寸不定,里面一般只有1和0的元素,代表位置被遮掩或者不被遮掩,至于是0位置被遮掩还是1位置被遮掩可以自定义,因此它的作用就是让另外一个张量中的一些数值被遮掩, 也可以说被替换, 它的表现形式是一个张量.

  • 学习了掩码张量的作用:
    • 在transformer中, 掩码张量的主要作用在应用attention(将在下一小节讲解)时,有一些生成的attetion张量中的值计算有可能已知量未来信息而得到的,未来信息被看到是因为训练时会把整个输出结果都一次性进行Embedding,但是理论上解码器的的输出却不是一次就能产生最终结果的,而是一次次通过上一次结果综合得出的,因此,未来的信息可能被提前利用. 所以,我们会进行遮掩. 关于解码器的有关知识将在后面的章节中讲解.

  • 学习并实现了生成向后遮掩的掩码张量函数: subsequent_mask
    • 它的输入是size, 代表掩码张量的大小.
    • 它的输出是一个最后两维形成1方阵的下三角阵.
    • 最后对生成的掩码张量进行了可视化分析, 更深一步理解了它的用途.


2.3.2 注意力机制


  • 学习目标:
    • 了解什么是注意力计算规则和注意力机制.
    • 掌握注意力计算规则的实现过程.

  • 什么是注意力:
    • 我们观察事物时,之所以能够快速判断一种事物(当然允许判断是错误的), 是因为我们大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断,而并非是从头到尾的观察一遍事物后,才能有判断结果. 正是基于这样的理论,就产生了注意力机制.

  • 什么是注意力计算规则:
    • 它需要三个指定的输入Q(query), K(key), V(value), 然后通过公式得到注意力的计算结果, 这个结果代表query在key和value作用下的表示. 而这个具体的计算规则有很多种, 我这里只介绍我们用到的这一种.

  • 我们这里使用的注意力的计算规则:

transformer - 图12


  • Q, K, V的比喻解释:


假如我们有一个问题: 给出一段文本,使用一些关键词对它进行描述!
为了方便统一正确答案,这道题可能预先已经给大家写出了一些关键词作为提示.其中这些给出的提示就可以看作是key,
而整个的文本信息就相当于是query,value的含义则更抽象,可以比作是你看到这段文本信息后,脑子里浮现的答案信息,
这里我们又假设大家最开始都不是很聪明,第一次看到这段文本后脑子里基本上浮现的信息就只有提示这些信息,
因此key与value基本是相同的,但是随着我们对这个问题的深入理解,通过我们的思考脑子里想起来的东西原来越多,
并且能够开始对我们query也就是这段文本,提取关键信息进行表示. 这就是注意力作用的过程, 通过这个过程,
我们最终脑子里的value发生了变化,
根据提示key生成了query的关键词表示方法,也就是另外一种特征表示方法.

刚刚我们说到key和value一般情况下默认是相同,与query是不同的,这种是我们一般的注意力输入形式,
但有一种特殊情况,就是我们query与key和value相同,这种情况我们称为自注意力机制,就如同我们的刚刚的例子,
使用一般注意力机制,是使用不同于给定文本的关键词表示它. 而自注意力机制,
需要用给定文本自身来表达自己,也就是说你需要从给定文本中抽取关键词来表述它, 相当于对文本自身的一次特征提取.


  • 什么是注意力机制:
    • 注意力机制是注意力计算规则能够应用的深度学习网络的载体, 除了注意力计算规则外, 还包括一些必要的全连接层以及相关张量处理, 使其与应用网络融为一体. 使用自注意力计算规则的注意力机制称为自注意力机制.

  • 注意力机制在网络中实现的图形表示:

transformer - 图13


  • 注意力计算规则的代码分析:


def attention(query, key, value, mask=None, dropout=None):
“””注意力机制的实现, 输入分别是query, key, value, mask: 掩码张量,
dropout是nn.Dropout层的实例化对象, 默认为None”””
# 在函数中, 首先取query的最后一维的大小, 一般情况下就等同于我们的词嵌入维度, 命名为d_k
d_k = query.size(-1)
# 按照注意力公式, 将query与key的转置相乘, 这里面key是将最后两个维度进行转置, 再除以缩放系数根号下d_k, 这种计算方法也称为缩放点积注意力计算.
# 得到注意力得分张量scores
scores = torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k)

  1. # 接着判断是否使用掩码张量<br /> if mask is not None:<br /> # 使用tensor的masked_fill方法, 将掩码张量和scores张量每个位置一一比较, 如果掩码张量处为0<br /> # 则对应的scores张量用-1e9这个值来替换, 如下演示<br /> scores = scores.masked_fill(mask == 0, -1e9)
  2. # 对scores的最后一维进行softmax操作, 使用F.softmax方法, 第一个参数是softmax对象, 第二个是目标维度.<br /> # 这样获得最终的注意力张量<br /> p_attn = F.softmax(scores, dim = -1)
  3. # 之后判断是否使用dropout进行随机置0<br /> if dropout is not None:<br /> # 将p_attn传入dropout对象中进行'丢弃'处理<br /> p_attn = dropout(p_attn)
  4. # 最后, 根据公式将p_attn与value张量相乘获得最终的query注意力表示, 同时返回注意力张量<br /> return torch.matmul(p_attn, value), p_attn
  • tensor.masked_fill演示:


>>> input = Variable(torch.randn(5, 5))
>>> input
Variable containing:
2.0344 -0.5450 0.3365 -0.1888 -2.1803
1.5221 -0.3823 0.8414 0.7836 -0.8481
-0.0345 -0.8643 0.6476 -0.2713 1.5645
0.8788 -2.2142 0.4022 0.1997 0.1474
2.9109 0.6006 -0.6745 -1.7262 0.6977
[torch.FloatTensor of size 5x5]

mask = Variable(torch.zeros(5, 5))
>>> mask
Variable containing:
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
[torch.FloatTensor of size 5x5]

input.masked_fill(mask == 0, -1e9)
Variable containing:
-1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09
-1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09
-1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09
-1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09
-1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09 -1.0000e+09
[torch.FloatTensor of size 5x5]


  • 输入参数:


# 我们令输入的query, key, value都相同, 位置编码的输出
query = key = value = pe_result
Variable containing:
( 0 ,.,.) =
46.5196 16.2057 -41.5581 … -16.0242 -17.8929 -43.0405
-32.6040 16.1096 -29.5228 … 4.2721 20.6034 -1.2747
-18.6235 14.5076 -2.0105 … 15.6462 -24.6081 -30.3391
0.0000 -66.1486 -11.5123 … 20.1519 -4.6823 0.4916

( 1 ,.,.) =
-24.8681 7.5495 -5.0765 … -7.5992 -26.6630 40.9517
13.1581 -3.1918 -30.9001 … 25.1187 -26.4621 2.9542
-49.7690 -42.5019 8.0198 … -5.4809 25.9403 -27.4931
-52.2775 10.4006 0.0000 … -1.9985 7.0106 -0.5189
[torch.FloatTensor of size 2x4x512]


  • 调用:


attn, p_attn = attention(query, key, value)
print(“attn:”, attn)
print(“p_attn:”, p_attn)


  • 输出效果:


# 将得到两个结果
# query的注意力表示:
attn: Variable containing:
( 0 ,.,.) =
12.8269 7.7403 41.2225 … 1.4603 27.8559 -12.2600
12.4904 0.0000 24.1575 … 0.0000 2.5838 18.0647
-32.5959 -4.6252 -29.1050 … 0.0000 -22.6409 -11.8341
8.9921 -33.0114 -0.7393 … 4.7871 -5.7735 8.3374

( 1 ,.,.) =
-25.6705 -4.0860 -36.8226 … 37.2346 -27.3576 2.5497
-16.6674 73.9788 -33.3296 … 28.5028 -5.5488 -13.7564
0.0000 -29.9039 -3.0405 … 0.0000 14.4408 14.8579
30.7819 0.0000 21.3908 … -29.0746 0.0000 -5.8475
[torch.FloatTensor of size 2x4x512]

注意力张量:
p_attn: Variable containing:
(0 ,.,.) =
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1

(1 ,.,.) =
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
[torch.FloatTensor of size 2x4x4]

  • 带有mask的输入参数:


query = key = value = pe_result

令mask为一个2x4x4的零张量
mask = Variable(torch.zeros(2, 4, 4))


  • 调用:


attn, p_attn = attention(query, key, value, mask=mask)
print(“attn:”, attn)
print(“p_attn:”, p_attn)


  • 带有mask的输出效果:


# query的注意力表示:
attn: Variable containing:
( 0 ,.,.) =
0.4284 -7.4741 8.8839 … 1.5618 0.5063 0.5770
0.4284 -7.4741 8.8839 … 1.5618 0.5063 0.5770
0.4284 -7.4741 8.8839 … 1.5618 0.5063 0.5770
0.4284 -7.4741 8.8839 … 1.5618 0.5063 0.5770

( 1 ,.,.) =
-2.8890 9.9972 -12.9505 … 9.1657 -4.6164 -0.5491
-2.8890 9.9972 -12.9505 … 9.1657 -4.6164 -0.5491
-2.8890 9.9972 -12.9505 … 9.1657 -4.6164 -0.5491
-2.8890 9.9972 -12.9505 … 9.1657 -4.6164 -0.5491
[torch.FloatTensor of size 2x4x512]

注意力张量:
p_attn: Variable containing:
(0 ,.,.) =
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500

(1 ,.,.) =
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500
0.2500 0.2500 0.2500 0.2500
[torch.FloatTensor of size 2x4x4]


  • 2.3.2 注意力机制总结:
    • 学习了什么是注意力:
      • 我们观察事物时,之所以能够快速判断一种事物(当然允许判断是错误的), 是因为我们大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断,而并非是从头到尾的观察一遍事物后,才能有判断结果. 正是基于这样的理论,就产生了注意力机制.

  • 什么是注意力计算规则:
    • 它需要三个指定的输入Q(query), K(key), V(value), 然后通过公式得到注意力的计算结果, 这个结果代表query在key和value作用下的表示. 而这个具体的计算规则有很多种, 我这里只介绍我们用到的这一种.

  • 学习了Q, K, V的比喻解释:
    • Q是一段准备被概括的文本; K是给出的提示; V是大脑中的对提示K的延伸.
    • 当Q=K=V时, 称作自注意力机制.

  • 什么是注意力机制:
    • 注意力机制是注意力计算规则能够应用的深度学习网络的载体, 除了注意力计算规则外, 还包括一些必要的全连接层以及相关张量处理, 使其与应用网络融为一体. 使用自注意力计算规则的注意力机制称为自注意力机制.

  • 学习并实现了注意力计算规则的函数: attention
    • 它的输入就是Q,K,V以及mask和dropout, mask用于掩码, dropout用于随机置0.
    • 它的输出有两个, query的注意力表示以及注意力张量.


2.3.3 多头注意力机制


  • 学习目标:
    • 了解多头注意力机制的作用.
    • 掌握多头注意力机制的实现过程.

  • 什么是多头注意力机制:
    • 从多头注意力的结构图中,貌似这个所谓的多个头就是指多组线性变换层,其实并不是,我只有使用了一组线性变化层,即三个变换张量对Q,K,V分别进行线性变换,这些变换不会改变原有张量的尺寸,因此每个变换矩阵都是方阵,得到输出结果后,多头的作用才开始显现,每个头开始从词义层面分割输出的张量,也就是每个头都想获得一组Q,K,V进行注意力机制的计算,但是句子中的每个词的表示只获得一部分,也就是只分割了最后一维的词嵌入向量. 这就是所谓的多头,将每个头的获得的输入送到注意力机制中, 就形成多头注意力机制.

  • 多头注意力机制结构图:

transformer - 图14


  • 多头注意力机制的作用:
    • 这种结构设计能让每个注意力机制去优化每个词汇的不同特征部分,从而均衡同一种注意力机制可能产生的偏差,让词义拥有来自更多元的表达,实验表明可以从而提升模型效果.

  • 多头注意力机制的代码实现:


# 用于深度拷贝的copy工具包
import copy

首先需要定义克隆函数, 因为在多头注意力机制的实现中, 用到多个结构相同的线性层.
# 我们将使用clone函数将他们一同初始化在一个网络层列表对象中. 之后的结构中也会用到该函数.
def clones(module, N):
“””用于生成相同网络层的克隆函数, 它的参数module表示要克隆的目标网络层, N代表需要克隆的数量”””
# 在函数中, 我们通过for循环对module进行N次深度拷贝, 使其每个module成为独立的层,
# 然后将其放在nn.ModuleList类型的列表中存放.
return nn.ModuleList([copy.deepcopy(module) for _ in range(N)])

我们使用一个类来实现多头注意力机制的处理
class MultiHeadedAttention(nn.Module):
def init(self, head, embeddingdim, dropout=0.1):
“””在类的初始化时, 会传入三个参数,head代表头数,embeddingdim代表词嵌入的维度,
dropout代表进行dropout操作时置0比率,默认是0.1.”””
super(MultiHeadedAttention, self).__init
()

  1. # 在函数中,首先使用了一个测试中常用的assert语句,判断h是否能被d_model整除,<br /> # 这是因为我们之后要给每个头分配等量的词特征.也就是embedding_dim/head个.<br /> assert embedding_dim % head == 0
  2. # 得到每个头获得的分割词向量维度d_k<br /> self.d_k = embedding_dim // head
  3. # 传入头数h<br /> self.head = head
  4. # 然后获得线性层对象,通过nn的Linear实例化,它的内部变换矩阵是embedding_dim x embedding_dim,然后使用clones函数克隆四个,<br /> # 为什么是四个呢,这是因为在多头注意力中,Q,K,V各需要一个,最后拼接的矩阵还需要一个,因此一共是四个.<br /> self.linears = clones(nn.Linear(embedding_dim, embedding_dim), 4)
  5. # self.attn为None,它代表最后得到的注意力张量,现在还没有结果所以为None.<br /> self.attn = None
  6. # 最后就是一个self.dropout对象,它通过nn中的Dropout实例化而来,置0比率为传进来的参数dropout.<br /> self.dropout = nn.Dropout(p=dropout)
  7. def forward(self, query, key, value, mask=None):<br /> """前向逻辑函数, 它的输入参数有四个,前三个就是注意力机制需要的Q, K, V,<br /> 最后一个是注意力机制中可能需要的mask掩码张量,默认是None. """
  8. # 如果存在掩码张量mask<br /> if mask is not None:<br /> # 使用unsqueeze拓展维度<br /> mask = mask.unsqueeze(0)
  9. # 接着,我们获得一个batch_size的变量,他是query尺寸的第1个数字,代表有多少条样本.<br /> batch_size = query.size(0)
  10. # 之后就进入多头处理环节<br /> # 首先利用zip将输入QKV与三个线性层组到一起,然后使用for循环,将输入QKV分别传到线性层中,<br /> # 做完线性变换后,开始为每个头分割输入,这里使用view方法对线性变换的结果进行维度重塑,多加了一个维度h,代表头数,<br /> # 这样就意味着每个头可以获得一部分词特征组成的句子,其中的-1代表自适应维度,<br /> # 计算机会根据这种变换自动计算这里的值.然后对第二维和第三维进行转置操作,<br /> # 为了让代表句子长度维度和词向量维度能够相邻,这样注意力机制才能找到词义与句子位置的关系,<br /> # 从attention函数中可以看到,利用的是原始输入的倒数第一和第二维.这样我们就得到了每个头的输入.<br /> query, key, value = \<br /> [model(x).view(batch_size, -1, self.head, self.d_k).transpose(1, 2)<br /> for model, x in zip(self.linears, (query, key, value))]
  11. # 得到每个头的输入后,接下来就是将他们传入到attention中,<br /> # 这里直接调用我们之前实现的attention函数.同时也将mask和dropout传入其中.<br /> x, self.attn = attention(query, key, value, mask=mask, dropout=self.dropout)
  12. # 通过多头注意力计算后,我们就得到了每个头计算结果组成的4维张量,我们需要将其转换为输入的形状以方便后续的计算,<br /> # 因此这里开始进行第一步处理环节的逆操作,先对第二和第三维进行转置,然后使用contiguous方法,<br /> # 这个方法的作用就是能够让转置后的张量应用view方法,否则将无法直接使用,<br /> # 所以,下一步就是使用view重塑形状,变成和输入形状相同.<br /> x = x.transpose(1, 2).contiguous().view(batch_size, -1, self.head * self.d_k)
  13. # 最后使用线性层列表中的最后一个线性层对输入进行线性变换得到最终的多头注意力结构的输出.<br /> return self.linears[-1](x)

  • tensor.view演示:


>>> x = torch.randn(4, 4)
>>> x.size()
torch.Size([4, 4])
>>> y = x.view(16)
>>> y.size()
torch.Size([16])
>>> z = x.view(-1, 8) # the size -1 is inferred from other dimensions
>>> z.size()
torch.Size([2, 8])

a = torch.randn(1, 2, 3, 4)
>>> a.size()
torch.Size([1, 2, 3, 4])
>>> b = a.transpose(1, 2) # Swaps 2nd and 3rd dimension
>>> b.size()
torch.Size([1, 3, 2, 4])
>>> c = a.view(1, 3, 2, 4) # Does not change tensor layout in memory
>>> c.size()
torch.Size([1, 3, 2, 4])
>>> torch.equal(b, c)
False


  • torch.transpose演示:


>>> x = torch.randn(2, 3)
>>> x
tensor([[ 1.0028, -0.9893, 0.5809],
[-0.1669, 0.7299, 0.4942]])
>>> torch.transpose(x, 0, 1)
tensor([[ 1.0028, -0.1669],
[-0.9893, 0.7299],
[ 0.5809, 0.4942]])


  • 实例化参数:


# 头数head
head = 8

词嵌入维度embedding_dim
embedding_dim = 512

置零比率dropout
dropout = 0.2


  • 输入参数:


# 假设输入的Q,K,V仍然相等
query = value = key = pe_result

输入的掩码张量mask
mask = Variable(torch.zeros(8, 4, 4))


  • 调用:


mha = MultiHeadedAttention(head, embedding_dim, dropout)
mha_result = mha(query, key, value, mask)
print(mha_result)


  • 输出效果:


tensor([[[-0.3075, 1.5687, -2.5693, ..., -1.1098, 0.0878, -3.3609],
[ 3.8065, -2.4538, -0.3708, …, -1.5205, -1.1488, -1.3984],
[ 2.4190, 0.5376, -2.8475, …, 1.4218, -0.4488, -0.2984],
[ 2.9356, 0.3620, -3.8722, …, -0.7996, 0.1468, 1.0345]],

  1. [[ 1.1423, 0.6038, 0.0954, ..., 2.2679, -5.7749, 1.4132],<br /> [ 2.4066, -0.2777, 2.8102, ..., 0.1137, -3.9517, -2.9246],<br /> [ 5.8201, 1.1534, -1.9191, ..., 0.1410, -7.6110, 1.0046],<br /> [ 3.1209, 1.0008, -0.5317, ..., 2.8619, -6.3204, -1.3435]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.3 多头注意力机制总结:
    • 学习了什么是多头注意力机制:
      • 每个头开始从词义层面分割输出的张量,也就是每个头都想获得一组Q,K,V进行注意力机制的计算,但是句子中的每个词的表示只获得一部分,也就是只分割了最后一维的词嵌入向量. 这就是所谓的多头.将每个头的获得的输入送到注意力机制中, 就形成了多头注意力机制.

  • 学习了多头注意力机制的作用:
    • 这种结构设计能让每个注意力机制去优化每个词汇的不同特征部分,从而均衡同一种注意力机制可能产生的偏差,让词义拥有来自更多元的表达,实验表明可以从而提升模型效果.

  • 学习并实现了多头注意力机制的类: MultiHeadedAttention
    • 因为多头注意力机制中需要使用多个相同的线性层, 首先实现了克隆函数clones.
    • clones函数的输入是module,N,分别代表克隆的目标层,和克隆个数.
    • clones函数的输出是装有N个克隆层的Module列表.
    • 接着实现MultiHeadedAttention类, 它的初始化函数输入是h, d_model, dropout分别代表头数,词嵌入维度和置零比率.
    • 它的实例化对象输入是Q, K, V以及掩码张量mask.
    • 它的实例化对象输出是通过多头注意力机制处理的Q的注意力表示.


2.3.4 前馈全连接层


  • 学习目标:
    • 了解什么是前馈全连接层及其它的作用.
    • 掌握前馈全连接层的实现过程.

  • 什么是前馈全连接层:
    • 在Transformer中前馈全连接层就是具有两层线性层的全连接网络.

  • 前馈全连接层的作用:
    • 考虑注意力机制可能对复杂过程的拟合程度不够, 通过增加两层网络来增强模型的能力.

  • 前馈全连接层的代码分析:


# 通过类PositionwiseFeedForward来实现前馈全连接层
class PositionwiseFeedForward(nn.Module):
def init(self, dmodel, dff, dropout=0.1):
“””初始化函数有三个输入参数分别是d_model, d_ff,和dropout=0.1,第一个是线性层的输入维度也是第二个线性层的输出维度,
因为我们希望输入通过前馈全连接层后输入和输出的维度不变. 第二个参数d_ff就是第二个线性层的输入维度和第一个线性层的输出维度.
最后一个是dropout置0比率.”””
super(PositionwiseFeedForward, self).__init
()

  1. # 首先按照我们预期使用nn实例化了两个线性层对象,self.w1和self.w2<br /> # 它们的参数分别是d_model, d_ff和d_ff, d_model<br /> self.w1 = nn.Linear(d_model, d_ff)<br /> self.w2 = nn.Linear(d_ff, d_model)<br /> # 然后使用nn的Dropout实例化了对象self.dropout<br /> self.dropout = nn.Dropout(dropout)
  2. def forward(self, x):<br /> """输入参数为x,代表来自上一层的输出"""<br /> # 首先经过第一个线性层,然后使用Funtional中relu函数进行激活,<br /> # 之后再使用dropout进行随机置0,最后通过第二个线性层w2,返回最终结果.<br /> return self.w2(self.dropout(F.relu(self.w1(x))))

  • ReLU函数公式: ReLU(x)=max(0, x)

  • ReLU函数图像:

transformer - 图15


  • 实例化参数:


d_model = 512

线性变化的维度
d_ff = 64

dropout = 0.2


  • 输入参数:


# 输入参数x可以是多头注意力机制的输出
x = mha_result
tensor([[[-0.3075, 1.5687, -2.5693, …, -1.1098, 0.0878, -3.3609],
[ 3.8065, -2.4538, -0.3708, …, -1.5205, -1.1488, -1.3984],
[ 2.4190, 0.5376, -2.8475, …, 1.4218, -0.4488, -0.2984],
[ 2.9356, 0.3620, -3.8722, …, -0.7996, 0.1468, 1.0345]],

  1. [[ 1.1423, 0.6038, 0.0954, ..., 2.2679, -5.7749, 1.4132],<br /> [ 2.4066, -0.2777, 2.8102, ..., 0.1137, -3.9517, -2.9246],<br /> [ 5.8201, 1.1534, -1.9191, ..., 0.1410, -7.6110, 1.0046],<br /> [ 3.1209, 1.0008, -0.5317, ..., 2.8619, -6.3204, -1.3435]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 调用:


ff = PositionwiseFeedForward(d_model, d_ff, dropout)
ff_result = ff(x)
print(ff_result)


  • 输出效果:


tensor([[[-1.9488e+00, -3.4060e-01, -1.1216e+00, ..., 1.8203e-01,
-2.6336e+00, 2.0917e-03],
[-2.5875e-02, 1.1523e-01, -9.5437e-01, …, -2.6257e-01,
-5.7620e-01, -1.9225e-01],
[-8.7508e-01, 1.0092e+00, -1.6515e+00, …, 3.4446e-02,
-1.5933e+00, -3.1760e-01],
[-2.7507e-01, 4.7225e-01, -2.0318e-01, …, 1.0530e+00,
-3.7910e-01, -9.7730e-01]],

  1. [[-2.2575e+00, -2.0904e+00, 2.9427e+00, ..., 9.6574e-01,<br /> -1.9754e+00, 1.2797e+00],<br /> [-1.5114e+00, -4.7963e-01, 1.2881e+00, ..., -2.4882e-02,<br /> -1.5896e+00, -1.0350e+00],<br /> [ 1.7416e-01, -4.0688e-01, 1.9289e+00, ..., -4.9754e-01,<br /> -1.6320e+00, -1.5217e+00],<br /> [-1.0874e-01, -3.3842e-01, 2.9379e-01, ..., -5.1276e-01,<br /> -1.6150e+00, -1.1295e+00]]], grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.4 前馈全连接层总结:
    • 学习了什么是前馈全连接层:
      • 在Transformer中前馈全连接层就是具有两层线性层的全连接网络.

  • 学习了前馈全连接层的作用:
    • 考虑注意力机制可能对复杂过程的拟合程度不够, 通过增加两层网络来增强模型的能力.

  • 学习并实现了前馈全连接层的类: PositionwiseFeedForward
    • 它的实例化参数为d_model, d_ff, dropout, 分别代表词嵌入维度, 线性变换维度, 和置零比率.
    • 它的输入参数x, 表示上层的输出.
    • 它的输出是经过2层线性网络变换的特征表示.


2.3.5 规范化层


  • 学习目标:
    • 了解规范化层的作用.
    • 掌握规范化层的实现过程.

  • 规范化层的作用:
    • 它是所有深层网络模型都需要的标准网络层,因为随着网络层数的增加,通过多层的计算后参数可能开始出现过大或过小的情况,这样可能会导致学习过程出现异常,模型可能收敛非常的慢. 因此都会在一定层数后接规范化层进行数值的规范化,使其特征数值在合理范围内.

  • 规范化层的代码实现:


# 通过LayerNorm实现规范化层的类
class LayerNorm(nn.Module):
def init(self, features, eps=1e-6):
“””初始化函数有两个参数, 一个是features, 表示词嵌入的维度,
另一个是eps它是一个足够小的数, 在规范化公式的分母中出现,
防止分母为0.默认是1e-6.”””
super(LayerNorm, self).init()

  1. # 根据features的形状初始化两个参数张量a2,和b2,第一个初始化为1张量,<br /> # 也就是里面的元素都是1,第二个初始化为0张量,也就是里面的元素都是0,这两个张量就是规范化层的参数,<br /> # 因为直接对上一层得到的结果做规范化公式计算,将改变结果的正常表征,因此就需要有参数作为调节因子,<br /> # 使其即能满足规范化要求,又能不改变针对目标的表征.最后使用nn.parameter封装,代表他们是模型的参数。<br /> self.a2 = nn.Parameter(torch.ones(features))<br /> self.b2 = nn.Parameter(torch.zeros(features))
  2. # 把eps传到类中<br /> self.eps = eps
  3. def forward(self, x):<br /> """输入参数x代表来自上一层的输出"""<br /> # 在函数中,首先对输入变量x求其最后一个维度的均值,并保持输出维度与输入维度一致.<br /> # 接着再求最后一个维度的标准差,然后就是根据规范化公式,用x减去均值除以标准差获得规范化的结果,<br /> # 最后对结果乘以我们的缩放参数,即a2,*号代表同型点乘,即对应位置进行乘法操作,加上位移参数b2.返回即可.<br /> mean = x.mean(-1, keepdim=True)<br /> std = x.std(-1, keepdim=True)<br /> return self.a2 * (x - mean) / (std + self.eps) + self.b2

  • 实例化参数:


features = d_model = 512
eps = 1e-6


  • 输入参数:


# 输入x来自前馈全连接层的输出
x = ff_result
tensor([[[-1.9488e+00, -3.4060e-01, -1.1216e+00, …, 1.8203e-01,
-2.6336e+00, 2.0917e-03],
[-2.5875e-02, 1.1523e-01, -9.5437e-01, …, -2.6257e-01,
-5.7620e-01, -1.9225e-01],
[-8.7508e-01, 1.0092e+00, -1.6515e+00, …, 3.4446e-02,
-1.5933e+00, -3.1760e-01],
[-2.7507e-01, 4.7225e-01, -2.0318e-01, …, 1.0530e+00,
-3.7910e-01, -9.7730e-01]],

  1. [[-2.2575e+00, -2.0904e+00, 2.9427e+00, ..., 9.6574e-01,<br /> -1.9754e+00, 1.2797e+00],<br /> [-1.5114e+00, -4.7963e-01, 1.2881e+00, ..., -2.4882e-02,<br /> -1.5896e+00, -1.0350e+00],<br /> [ 1.7416e-01, -4.0688e-01, 1.9289e+00, ..., -4.9754e-01,<br /> -1.6320e+00, -1.5217e+00],<br /> [-1.0874e-01, -3.3842e-01, 2.9379e-01, ..., -5.1276e-01,<br /> -1.6150e+00, -1.1295e+00]]], grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 调用:


ln = LayerNorm(feature, eps)
ln_result = ln(x)
print(ln_result)


  • 输出效果:


tensor([[[ 2.2697, 1.3911, -0.4417, ..., 0.9937, 0.6589, -1.1902],
[ 1.5876, 0.5182, 0.6220, …, 0.9836, 0.0338, -1.3393],
[ 1.8261, 2.0161, 0.2272, …, 0.3004, 0.5660, -0.9044],
[ 1.5429, 1.3221, -0.2933, …, 0.0406, 1.0603, 1.4666]],

  1. [[ 0.2378, 0.9952, 1.2621, ..., -0.4334, -1.1644, 1.2082],<br /> [-1.0209, 0.6435, 0.4235, ..., -0.3448, -1.0560, 1.2347],<br /> [-0.8158, 0.7118, 0.4110, ..., 0.0990, -1.4833, 1.9434],<br /> [ 0.9857, 2.3924, 0.3819, ..., 0.0157, -1.6300, 1.2251]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.5 规范化层总结:
    • 学习了规范化层的作用:
      • 它是所有深层网络模型都需要的标准网络层,因为随着网络层数的增加,通过多层的计算后参数可能开始出现过大或过小的情况,这样可能会导致学习过程出现异常,模型可能收敛非常的慢. 因此都会在一定层数后接规范化层进行数值的规范化,使其特征数值在合理范围内.

  • 学习并实现了规范化层的类: LayerNorm
    • 它的实例化参数有两个, features和eps,分别表示词嵌入特征大小,和一个足够小的数.
    • 它的输入参数x代表来自上一层的输出.
    • 它的输出就是经过规范化的特征表示.


2.3.6 子层连接结构


  • 学习目标:
    • 了解什么是子层连接结构.
    • 掌握子层连接结构的实现过程.

  • 什么是子层连接结构:
    • 如图所示,输入到每个子层以及规范化层的过程中,还使用了残差链接(跳跃连接),因此我们把这一部分结构整体叫做子层连接(代表子层及其链接结构),在每个编码器层中,都有两个子层,这两个子层加上周围的链接结构就形成了两个子层连接结构.

  • 子层连接结构图:

transformer - 图16


transformer - 图17


  • 子层连接结构的代码分析:


# 使用SublayerConnection来实现子层连接结构的类
class SublayerConnection(nn.Module):
def init(self, size, dropout=0.1):
“””它输入参数有两个, size以及dropout, size一般是都是词嵌入维度的大小,
dropout本身是对模型结构中的节点数进行随机抑制的比率,
又因为节点被抑制等效就是该节点的输出都是0,因此也可以把dropout看作是对输出矩阵的随机置0的比率.
“””
super(SublayerConnection, self).init()
# 实例化了规范化对象self.norm
self.norm = LayerNorm(size)
# 又使用nn中预定义的droupout实例化一个self.dropout对象.
self.dropout = nn.Dropout(p=dropout)

  1. def forward(self, x, sublayer):<br /> """前向逻辑函数中, 接收上一个层或者子层的输入作为第一个参数,<br /> 将该子层连接中的子层函数作为第二个参数"""
  2. # 我们首先对输出进行规范化,然后将结果传给子层处理,之后再对子层进行dropout操作,<br /> # 随机停止一些网络中神经元的作用,来防止过拟合. 最后还有一个add操作, <br /> # 因为存在跳跃连接,所以是将输入x与dropout后的子层输出结果相加作为最终的子层连接输出.<br /> return x + self.dropout(sublayer(self.norm(x)))

  • 实例化参数


size = 512
dropout = 0.2
head = 8
d_model = 512


  • 输入参数:


# 令x为位置编码器的输出
x = pe_result
mask = Variable(torch.zeros(8, 4, 4))

假设子层中装的是多头注意力层, 实例化这个类
self_attn = MultiHeadedAttention(head, d_model)

使用lambda获得一个函数类型的子层
sublayer = lambda x: self_attn(x, x, x, mask)


  • 调用:


sc = SublayerConnection(size, dropout)
sc_result = sc(x, sublayer)
print(sc_result)
print(sc_result.shape)


  • 输出效果:


tensor([[[ 14.8830, 22.4106, -31.4739, ..., 21.0882, -10.0338, -0.2588],
[-25.1435, 2.9246, -16.1235, …, 10.5069, -7.1007, -3.7396],
[ 0.1374, 32.6438, 12.3680, …, -12.0251, -40.5829, 2.2297],
[-13.3123, 55.4689, 9.5420, …, -12.6622, 23.4496, 21.1531]],

  1. [[ 13.3533, 17.5674, -13.3354, ..., 29.1366, -6.4898, 35.8614],<br /> [-35.2286, 18.7378, -31.4337, ..., 11.1726, 20.6372, 29.8689],<br /> [-30.7627, 0.0000, -57.0587, ..., 15.0724, -10.7196, -18.6290],<br /> [ -2.7757, -19.6408, 0.0000, ..., 12.7660, 21.6843, -35.4784]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.6 子层连接结构总结:
    • 什么是子层连接结构:
      • 如图所示,输入到每个子层以及规范化层的过程中,还使用了残差链接(跳跃连接),因此我们把这一部分结构整体叫做子层连接(代表子层及其链接结构), 在每个编码器层中,都有两个子层,这两个子层加上周围的链接结构就形成了两个子层连接结构.

  • 学习并实现了子层连接结构的类: SublayerConnection
    • 类的初始化函数输入参数是size, dropout, 分别代表词嵌入大小和置零比率.
    • 它的实例化对象输入参数是x, sublayer, 分别代表上一层输出以及子层的函数表示.
    • 它的输出就是通过子层连接结构处理的输出.


2.3.7 编码器层


  • 学习目标:
    • 了解编码器层的作用.
    • 掌握编码器层的实现过程.

  • 编码器层的作用:
    • 作为编码器的组成单元, 每个编码器层完成一次对输入的特征提取过程, 即编码过程.

  • 编码器层的构成图:

transformer - 图18


  • 编码器层的代码分析:


# 使用EncoderLayer类实现编码器层
class EncoderLayer(nn.Module):
def init(self, size, selfattn, feedforward, dropout):
“””它的初始化函数参数有四个,分别是size,其实就是我们词嵌入维度的大小,它也将作为我们编码器层的大小,
第二个self_attn,之后我们将传入多头自注意力子层实例化对象, 并且是自注意力机制,
第三个是feed_froward, 之后我们将传入前馈全连接层实例化对象, 最后一个是置0比率dropout.”””
super(EncoderLayer, self).__init
()

  1. # 首先将self_attn和feed_forward传入其中.<br /> self.self_attn = self_attn<br /> self.feed_forward = feed_forward
  2. # 如图所示, 编码器层中有两个子层连接结构, 所以使用clones函数进行克隆<br /> self.sublayer = clones(SublayerConnection(size, dropout), 2)<br /> # 把size传入其中<br /> self.size = size
  3. def forward(self, x, mask):<br /> """forward函数中有两个输入参数,x和mask,分别代表上一层的输出,和掩码张量mask."""<br /> # 里面就是按照结构图左侧的流程. 首先通过第一个子层连接结构,其中包含多头自注意力子层,<br /> # 然后通过第二个子层连接结构,其中包含前馈全连接子层. 最后返回结果.<br /> x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask))<br /> return self.sublayer[1](x, self.feed_forward)

  • 实例化参数:


size = 512
head = 8
d_model = 512
d_ff = 64
x = pe_result
dropout = 0.2
self_attn = MultiHeadedAttention(head, d_model)
ff = PositionwiseFeedForward(d_model, d_ff, dropout)
mask = Variable(torch.zeros(8, 4, 4))


  • 调用:


el = EncoderLayer(size, self_attn, ff, dropout)
el_result = el(x, mask)
print(el_result)
print(el_result.shape)


  • 输出效果:


tensor([[[ 33.6988, -30.7224, 20.9575, ..., 5.2968, -48.5658, 20.0734],
[-18.1999, 34.2358, 40.3094, …, 10.1102, 58.3381, 58.4962],
[ 32.1243, 16.7921, -6.8024, …, 23.0022, -18.1463, -17.1263],
[ -9.3475, -3.3605, -55.3494, …, 43.6333, -0.1900, 0.1625]],

  1. [[ 32.8937, -46.2808, 8.5047, ..., 29.1837, 22.5962, -14.4349],<br /> [ 21.3379, 20.0657, -31.7256, ..., -13.4079, -44.0706, -9.9504],<br /> [ 19.7478, -1.0848, 11.8884, ..., -9.5794, 0.0675, -4.7123],<br /> [ -6.8023, -16.1176, 20.9476, ..., -6.5469, 34.8391, -14.9798]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.7 编码器层总结:
    • 学习了编码器层的作用:
      • 作为编码器的组成单元, 每个编码器层完成一次对输入的特征提取过程, 即编码过程.

  • 学习并实现了编码器层的类: EncoderLayer
    • 类的初始化函数共有4个, 别是size,其实就是我们词嵌入维度的大小. 第二个self_attn,之后我们将传入多头自注意力子层实例化对象, 并且是自注意力机制. 第三个是feed_froward, 之后我们将传入前馈全连接层实例化对象. 最后一个是置0比率dropout.
    • 实例化对象的输入参数有2个,x代表来自上一层的输出, mask代表掩码张量.
    • 它的输出代表经过整个编码层的特征表示.


2.3.8 编码器


  • 学习目标:
    • 了解编码器的作用.
    • 掌握编码器的实现过程.

  • 编码器的作用:
    • 编码器用于对输入进行指定的特征提取过程, 也称为编码, 由N个编码器层堆叠而成.

  • 编码器的结构图:

transformer - 图19


  • 编码器的代码分析:


# 使用Encoder类来实现编码器
class Encoder(nn.Module):
def init(self, layer, N):
“””初始化函数的两个参数分别代表编码器层和编码器层的个数”””
super(Encoder, self).init()
# 首先使用clones函数克隆N个编码器层放在self.layers中
self.layers = clones(layer, N)
# 再初始化一个规范化层, 它将用在编码器的最后面.
self.norm = LayerNorm(layer.size)

  1. def forward(self, x, mask):<br /> """forward函数的输入和编码器层相同, x代表上一层的输出, mask代表掩码张量"""<br /> # 首先就是对我们克隆的编码器层进行循环,每次都会得到一个新的x,<br /> # 这个循环的过程,就相当于输出的x经过了N个编码器层的处理. <br /> # 最后再通过规范化层的对象self.norm进行处理,最后返回结果. <br /> for layer in self.layers:<br /> x = layer(x, mask)<br /> return self.norm(x)
  • 实例化参数:


# 第一个实例化参数layer, 它是一个编码器层的实例化对象, 因此需要传入编码器层的参数
# 又因为编码器层中的子层是不共享的, 因此需要使用深度拷贝各个对象.
size = 512
head = 8
d_model = 512
d_ff = 64
c = copy.deepcopy
attn = MultiHeadedAttention(head, d_model)
ff = PositionwiseFeedForward(d_model, d_ff, dropout)
dropout = 0.2
layer = EncoderLayer(size, c(attn), c(ff), dropout)

编码器中编码器层的个数N
N = 8
mask = Variable(torch.zeros(8, 4, 4))


  • 调用:


en = Encoder(layer, N)
en_result = en(x, mask)
print(en_result)
print(en_result.shape)


  • 输出效果:


tensor([[[-0.2081, -0.3586, -0.2353, ..., 2.5646, -0.2851, 0.0238],
[ 0.7957, -0.5481, 1.2443, …, 0.7927, 0.6404, -0.0484],
[-0.1212, 0.4320, -0.5644, …, 1.3287, -0.0935, -0.6861],
[-0.3937, -0.6150, 2.2394, …, -1.5354, 0.7981, 1.7907]],

  1. [[-2.3005, 0.3757, 1.0360, ..., 1.4019, 0.6493, -0.1467],<br /> [ 0.5653, 0.1569, 0.4075, ..., -0.3205, 1.4774, -0.5856],<br /> [-1.0555, 0.0061, -1.8165, ..., -0.4339, -1.8780, 0.2467],<br /> [-2.1617, -1.5532, -1.4330, ..., -0.9433, -0.5304, -1.7022]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.3.8 编码器总结:
    • 学习了编码器的作用:
      • 编码器用于对输入进行指定的特征提取过程, 也称为编码, 由N个编码器层堆叠而成.

  • 学习并实现了编码器的类: Encoder
    • 类的初始化函数参数有两个,分别是layer和N,代表编码器层和编码器层的个数.
    • forward函数的输入参数也有两个, 和编码器层的forward相同, x代表上一层的输出, mask代码掩码张量.
    • 编码器类的输出就是Transformer中编码器的特征提取表示, 它将成为解码器的输入的一部分.



2.4 解码器部分实现


学习目标

  • 了解解码器中各个组成部分的作用.
  • 掌握解码器中各个组成部分的实现过程.

  • 解码器部分:
    • 由N个解码器层堆叠而成
    • 每个解码器层由三个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
    • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

transformer - 图20


  • 说明:
    • 解码器层中的各个部分,如,多头注意力机制,规范化层,前馈全连接网络,子层连接结构都与编码器中的实现相同. 因此这里可以直接拿来构建解码器层.


2.4.1 解码器层


  • 学习目标:
    • 了解解码器层的作用.
    • 掌握解码器层的实现过程.

  • 解码器层的作用:
    • 作为解码器的组成单元, 每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程.

  • 解码器层的代码实现:


# 使用DecoderLayer的类实现解码器层
class DecoderLayer(nn.Module):
def init(self, size, selfattn, srcattn, feed_forward, dropout):
“””初始化函数的参数有5个, 分别是size,代表词嵌入的维度大小, 同时也代表解码器层的尺寸,
第二个是self_attn,多头自注意力对象,也就是说这个注意力机制需要Q=K=V,
第三个是src_attn,多头注意力对象,这里Q!=K=V, 第四个是前馈全连接层对象,最后就是droupout置0比率.
“””
super(DecoderLayer, self).__init
()
# 在初始化函数中, 主要就是将这些输入传到类中
self.size = size
self.self_attn = self_attn
self.src_attn = src_attn
self.feed_forward = feed_forward
# 按照结构图使用clones函数克隆三个子层连接对象.
self.sublayer = clones(SublayerConnection(size, dropout), 3)

  1. def forward(self, x, memory, source_mask, target_mask):<br /> """forward函数中的参数有4个,分别是来自上一层的输入x,<br /> 来自编码器层的语义存储变量mermory, 以及源数据掩码张量和目标数据掩码张量.<br /> """<br /> # 将memory表示成m方便之后使用<br /> m = memory
  2. # 将x传入第一个子层结构,第一个子层结构的输入分别是x和self-attn函数,因为是自注意力机制,所以Q,K,V都是x,<br /> # 最后一个参数是目标数据掩码张量,这时要对目标数据进行遮掩,因为此时模型可能还没有生成任何目标数据,<br /> # 比如在解码器准备生成第一个字符或词汇时,我们其实已经传入了第一个字符以便计算损失,<br /> # 但是我们不希望在生成第一个字符时模型能利用这个信息,因此我们会将其遮掩,同样生成第二个字符或词汇时,<br /> # 模型只能使用第一个字符或词汇信息,第二个字符以及之后的信息都不允许被模型使用.<br /> x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, target_mask))
  3. # 接着进入第二个子层,这个子层中常规的注意力机制,q是输入x; k,v是编码层输出memory, <br /> # 同样也传入source_mask,但是进行源数据遮掩的原因并非是抑制信息泄漏,而是遮蔽掉对结果没有意义的字符而产生的注意力值,<br /> # 以此提升模型效果和训练速度. 这样就完成了第二个子层的处理.<br /> x = self.sublayer[1](x, lambda x: self.src_attn(x, m, m, source_mask))
  4. # 最后一个子层就是前馈全连接子层,经过它的处理后就可以返回结果.这就是我们的解码器层结构.<br /> return self.sublayer[2](x, self.feed_forward)
  • 实例化参数:


# 类的实例化参数与解码器层类似, 相比多出了src_attn, 但是和self_attn是同一个类.
head = 8
size = 512
d_model = 512
d_ff = 64
dropout = 0.2
self_attn = src_attn = MultiHeadedAttention(head, d_model, dropout)

前馈全连接层也和之前相同
ff = PositionwiseFeedForward(d_model, d_ff, dropout)


  • 输入参数:


# x是来自目标数据的词嵌入表示, 但形式和源数据的词嵌入表示相同, 这里使用per充当.
x = pe_result

memory是来自编码器的输出
memory = en_result

实际中source_mask和target_mask并不相同, 这里为了方便计算使他们都为mask
mask = Variable(torch.zeros(8, 4, 4))
source_mask = target_mask = mask


  • 调用:


dl = DecoderLayer(size, self_attn, src_attn, ff, dropout)
dl_result = dl(x, memory, source_mask, target_mask)
print(dl_result)
print(dl_result.shape)


  • 输出效果:


tensor([[[ 1.9604e+00, 3.9288e+01, -5.2422e+01, ..., 2.1041e-01,
-5.5063e+01, 1.5233e-01],
[ 1.0135e-01, -3.7779e-01, 6.5491e+01, …, 2.8062e+01,
-3.7780e+01, -3.9577e+01],
[ 1.9526e+01, -2.5741e+01, 2.6926e-01, …, -1.5316e+01,
1.4543e+00, 2.7714e+00],
[-2.1528e+01, 2.0141e+01, 2.1999e+01, …, 2.2099e+00,
-1.7267e+01, -1.6687e+01]],

  1. [[ 6.7259e+00, -2.6918e+01, 1.1807e+01, ..., -3.6453e+01,<br /> -2.9231e+01, 1.1288e+01],<br /> [ 7.7484e+01, -5.0572e-01, -1.3096e+01, ..., 3.6302e-01,<br /> 1.9907e+01, -1.2160e+00],<br /> [ 2.6703e+01, 4.4737e+01, -3.1590e+01, ..., 4.1540e-03,<br /> 5.2587e+00, 5.2382e+00],<br /> [ 4.7435e+01, -3.7599e-01, 5.0898e+01, ..., 5.6361e+00,<br /> 3.5891e+01, 1.5697e+01]]], grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.4.1 解码器层总结:
    • 学习了解码器层的作用:
      • 作为解码器的组成单元, 每个解码器层根据给定的输入向目标方向进行特征提取操作,即解码过程.

  • 学习并实现了解码器层的类: DecoderLayer
    • 类的初始化函数的参数有5个, 分别是size,代表词嵌入的维度大小, 同时也代表解码器层的尺寸,第二个是self_attn,多头自注意力对象,也就是说这个注意力机制需要Q=K=V,第三个是src_attn,多头注意力对象,这里Q!=K=V, 第四个是前馈全连接层对象,最后就是droupout置0比率.
    • forward函数的参数有4个,分别是来自上一层的输入x,来自编码器层的语义存储变量mermory, 以及源数据掩码张量和目标数据掩码张量.
    • 最终输出了由编码器输入和目标数据一同作用的特征提取结果.


2.4.2 解码器


  • 学习目标:
    • 了解解码器的作用.
    • 掌握解码器的实现过程.

  • 解码器的作用:
    • 根据编码器的结果以及上一次预测的结果, 对下一次可能出现的’值’进行特征表示.

  • 解码器的代码分析:


# 使用类Decoder来实现解码器
class Decoder(nn.Module):
def init(self, layer, N):
“””初始化函数的参数有两个,第一个就是解码器层layer,第二个是解码器层的个数N.”””
super(Decoder, self).init()
# 首先使用clones方法克隆了N个layer,然后实例化了一个规范化层.
# 因为数据走过了所有的解码器层后最后要做规范化处理.
self.layers = clones(layer, N)
self.norm = LayerNorm(layer.size)

  1. def forward(self, x, memory, source_mask, target_mask):<br /> """forward函数中的参数有4个,x代表目标数据的嵌入表示,memory是编码器层的输出,<br /> source_mask, target_mask代表源数据和目标数据的掩码张量"""
  2. # 然后就是对每个层进行循环,当然这个循环就是变量x通过每一个层的处理,<br /> # 得出最后的结果,再进行一次规范化返回即可. <br /> for layer in self.layers:<br /> x = layer(x, memory, source_mask, target_mask)<br /> return self.norm(x)
  • 实例化参数:


# 分别是解码器层layer和解码器层的个数N
size = 512
d_model = 512
head = 8
d_ff = 64
dropout = 0.2
c = copy.deepcopy
attn = MultiHeadedAttention(head, d_model)
ff = PositionwiseFeedForward(d_model, d_ff, dropout)
layer = DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout)
N = 8


  • 输入参数:


# 输入参数与解码器层的输入参数相同
x = pe_result
memory = en_result
mask = Variable(torch.zeros(8, 4, 4))
source_mask = target_mask = mask


  • 调用:


de = Decoder(layer, N)
de_result = de(x, memory, source_mask, target_mask)
print(de_result)
print(de_result.shape)


  • 输出效果:


tensor([[[ 0.9898, -0.3216, -1.2439, ..., 0.7427, -0.0717, -0.0814],
[-0.7432, 0.6985, 1.5551, …, 0.5232, -0.5685, 1.3387],
[ 0.2149, 0.5274, -1.6414, …, 0.7476, 0.5082, -3.0132],
[ 0.4408, 0.9416, 0.4522, …, -0.1506, 1.5591, -0.6453]],

  1. [[-0.9027, 0.5874, 0.6981, ..., 2.2899, 0.2933, -0.7508],<br /> [ 1.2246, -1.0856, -0.2497, ..., -1.2377, 0.0847, -0.0221],<br /> [ 3.4012, -0.4181, -2.0968, ..., -1.5427, 0.1090, -0.3882],<br /> [-0.1050, -0.5140, -0.6494, ..., -0.4358, -1.2173, 0.4161]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 2.4.2 解码器总结:
    • 学习了解码器的作用:
      • 根据编码器的结果以及上一次预测的结果, 对下一次可能出现的’值’进行特征表示.

  • 学习并实现了解码器的类: Decoder
    • 类的初始化函数的参数有两个,第一个就是解码器层layer,第二个是解码器层的个数N.
    • forward函数中的参数有4个,x代表目标数据的嵌入表示,memory是编码器层的输出,src_mask, tgt_mask代表源数据和目标数据的掩码张量.
    • 输出解码过程的最终特征表示.



2.5 输出部分实现


学习目标

  • 了解线性层和softmax的作用.
  • 掌握线性层和softmax的实现过程.

  • 输出部分包含:
    • 线性层
    • softmax层

transformer - 图21


线性层的作用

  • 通过对上一步的线性变化得到指定维度的输出, 也就是转换维度的作用.

softmax层的作用

  • 使最后一维的向量中的数字缩放到0-1的概率值域内, 并满足他们的和为1.

  • 线性层和softmax层的代码分析:


# nn.functional工具包装载了网络层中那些只进行计算, 而没有参数的层
import torch.nn.functional as F

将线性层和softmax计算层一起实现, 因为二者的共同目标是生成最后的结构
# 因此把类的名字叫做Generator, 生成器类
class Generator(nn.Module):
def init(self, dmodel, vocabsize):
“””初始化函数的输入参数有两个, d_model代表词嵌入维度, vocab_size代表词表大小.”””
super(Generator, self).__init
()
# 首先就是使用nn中的预定义线性层进行实例化, 得到一个对象self.project等待使用,
# 这个线性层的参数有两个, 就是初始化函数传进来的两个参数: d_model, vocab_size
self.project = nn.Linear(d_model, vocab_size)

  1. def forward(self, x):<br /> """前向逻辑函数中输入是上一层的输出张量x"""<br /> # 在函数中, 首先使用上一步得到的self.project对x进行线性变化, <br /> # 然后使用F中已经实现的log_softmax进行的softmax处理.<br /> # 在这里之所以使用log_softmax是因为和我们这个pytorch版本的损失函数实现有关, 在其他版本中将修复.<br /> # log_softmax就是对softmax的结果又取了对数, 因为对数函数是单调递增函数, <br /> # 因此对最终我们取最大的概率值没有影响. 最后返回结果即可.<br /> return F.log_softmax(self.project(x), dim=-1)

  • nn.Linear演示:


>>> m = nn.Linear(20, 30)
>>> input = torch.randn(128, 20)
>>> output = m(input)
>>> print(output.size())
torch.Size([128, 30])


  • 实例化参数:


# 词嵌入维度是512维
d_model = 512

词表大小是1000
vocab_size = 1000


  • 输入参数:


# 输入x是上一层网络的输出, 我们使用来自解码器层的输出
x = de_result


  • 调用:


gen = Generator(d_model, vocab_size)
gen_result = gen(x)
print(gen_result)
print(gen_result.shape)


  • 输出效果:


tensor([[[-7.8098, -7.5260, -6.9244, ..., -7.6340, -6.9026, -7.5232],
[-6.9093, -7.3295, -7.2972, …, -6.6221, -7.2268, -7.0772],
[-7.0263, -7.2229, -7.8533, …, -6.7307, -6.9294, -7.3042],
[-6.5045, -6.0504, -6.6241, …, -5.9063, -6.5361, -7.1484]],

  1. [[-7.1651, -6.0224, -7.4931, ..., -7.9565, -8.0460, -6.6490],<br /> [-6.3779, -7.6133, -8.3572, ..., -6.6565, -7.1867, -6.5112],<br /> [-6.4914, -6.9289, -6.2634, ..., -6.2471, -7.5348, -6.8541],<br /> [-6.8651, -7.0460, -7.6239, ..., -7.1411, -6.5496, -7.3749]]],<br /> grad_fn=<LogSoftmaxBackward>)<br />torch.Size([2, 4, 1000])

小节总结

  • 学习了输出部分包含:
    • 线性层
    • softmax层

  • 线性层的作用:
    • 通过对上一步的线性变化得到指定维度的输出, 也就是转换维度的作用.

  • softmax层的作用:
    • 使最后一维的向量中的数字缩放到0-1的概率值域内, 并满足他们的和为1.

  • 学习并实现了线性层和softmax层的类: Generator
    • 初始化函数的输入参数有两个, d_model代表词嵌入维度, vocab_size代表词表大小.
    • forward函数接受上一层的输出.
    • 最终获得经过线性层和softmax层处理的结果.



2.6 模型构建


学习目标

  • 掌握编码器-解码器结构的实现过程.
  • 掌握Transformer模型的构建过程.

  • 通过上面的小节, 我们已经完成了所有组成部分的实现, 接下来就来实现完整的编码器-解码器结构.

  • Transformer总体架构图:

transformer - 图22


编码器-解码器结构的代码实现


# 使用EncoderDecoder类来实现编码器-解码器结构
class EncoderDecoder(nn.Module):
def init(self, encoder, decoder, sourceembed, targetembed, generator):
“””初始化函数中有5个参数, 分别是编码器对象, 解码器对象,
源数据嵌入函数, 目标数据嵌入函数, 以及输出部分的类别生成器对象
“””
super(EncoderDecoder, self).__init
()
# 将参数传入到类中
self.encoder = encoder
self.decoder = decoder
self.src_embed = source_embed
self.tgt_embed = target_embed
self.generator = generator

  1. def forward(self, source, target, source_mask, target_mask):<br /> """在forward函数中,有四个参数, source代表源数据, target代表目标数据, <br /> source_mask和target_mask代表对应的掩码张量"""
  2. # 在函数中, 将source, source_mask传入编码函数, 得到结果后,<br /> # 与source_mask,target,和target_mask一同传给解码函数.<br /> return self.decode(self.encode(source, source_mask), source_mask,<br /> target, target_mask)
  3. def encode(self, source, source_mask):<br /> """编码函数, 以source和source_mask为参数"""<br /> # 使用src_embed对source做处理, 然后和source_mask一起传给self.encoder<br /> return self.encoder(self.src_embed(source), source_mask)
  4. def decode(self, memory, source_mask, target, target_mask):<br /> """解码函数, 以memory即编码器的输出, source_mask, target, target_mask为参数"""<br /> # 使用tgt_embed对target做处理, 然后和source_mask, target_mask, memory一起传给self.decoder<br /> return self.decoder(self.tgt_embed(target), memory, source_mask, target_mask)

  • 实例化参数


vocab_size = 1000
d_model = 512
encoder = en
decoder = de
source_embed = nn.Embedding(vocab_size, d_model)
target_embed = nn.Embedding(vocab_size, d_model)
generator = gen


  • 输入参数:


# 假设源数据与目标数据相同, 实际中并不相同
source = target = Variable(torch.LongTensor([[100, 2, 421, 508], [491, 998, 1, 221]]))

假设src_mask与tgt_mask相同,实际中并不相同
source_mask = target_mask = Variable(torch.zeros(8, 4, 4))


  • 调用:


ed = EncoderDecoder(encoder, decoder, source_embed, target_embed, generator)
ed_result = ed(source, target, source_mask, target_mask)
print(ed_result)
print(ed_result.shape)


  • 输出效果:


tensor([[[ 0.2102, -0.0826, -0.0550, ..., 1.5555, 1.3025, -0.6296],
[ 0.8270, -0.5372, -0.9559, …, 0.3665, 0.4338, -0.7505],
[ 0.4956, -0.5133, -0.9323, …, 1.0773, 1.1913, -0.6240],
[ 0.5770, -0.6258, -0.4833, …, 0.1171, 1.0069, -1.9030]],

  1. [[-0.4355, -1.7115, -1.5685, ..., -0.6941, -0.1878, -0.1137],<br /> [-0.8867, -1.2207, -1.4151, ..., -0.9618, 0.1722, -0.9562],<br /> [-0.0946, -0.9012, -1.6388, ..., -0.2604, -0.3357, -0.6436],<br /> [-1.1204, -1.4481, -1.5888, ..., -0.8816, -0.6497, 0.0606]]],<br /> grad_fn=<AddBackward0>)<br />torch.Size([2, 4, 512])

  • 接着将基于以上结构构建用于训练的模型.

Tansformer模型构建过程的代码分析


def make_model(source_vocab, target_vocab, N=6,
d_model=512, d_ff=2048, head=8, dropout=0.1):
“””该函数用来构建模型, 有7个参数,分别是源数据特征(词汇)总数,目标数据特征(词汇)总数,
编码器和解码器堆叠数,词向量映射维度,前馈全连接网络中变换矩阵的维度,
多头注意力结构中的多头数,以及置零比率dropout.”””

  1. # 首先得到一个深度拷贝命令,接下来很多结构都需要进行深度拷贝,<br /> # 来保证他们彼此之间相互独立,不受干扰.<br /> c = copy.deepcopy
  2. # 实例化了多头注意力类,得到对象attn<br /> attn = MultiHeadedAttention(head, d_model)
  3. # 然后实例化前馈全连接类,得到对象ff <br /> ff = PositionwiseFeedForward(d_model, d_ff, dropout)
  4. # 实例化位置编码类,得到对象position<br /> position = PositionalEncoding(d_model, dropout)
  5. # 根据结构图, 最外层是EncoderDecoder,在EncoderDecoder中,<br /> # 分别是编码器层,解码器层,源数据Embedding层和位置编码组成的有序结构,<br /> # 目标数据Embedding层和位置编码组成的有序结构,以及类别生成器层. <br /> # 在编码器层中有attention子层以及前馈全连接子层,<br /> # 在解码器层中有两个attention子层以及前馈全连接层.<br /> model = EncoderDecoder(<br /> Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout), N),<br /> Decoder(DecoderLayer(d_model, c(attn), c(attn),<br /> c(ff), dropout), N),<br /> nn.Sequential(Embeddings(d_model, source_vocab), c(position)),<br /> nn.Sequential(Embeddings(d_model, target_vocab), c(position)),<br /> Generator(d_model, target_vocab))
  6. # 模型结构完成后,接下来就是初始化模型中的参数,比如线性层中的变换矩阵<br /> # 这里一但判断参数的维度大于1,则会将其初始化成一个服从均匀分布的矩阵,<br /> for p in model.parameters():<br /> if p.dim() > 1:<br /> nn.init.xavier_uniform(p)<br /> return model

  • nn.init.xavier_uniform演示:


# 结果服从均匀分布U(-a, a)
>>> w = torch.empty(3, 5)
>>> w = nn.init.xavieruniform(w, gain=nn.init.calculate_gain(‘relu’))
>>> w
tensor([[-0.7742, 0.5413, 0.5478, -0.4806, -0.2555],
[-0.8358, 0.4673, 0.3012, 0.3882, -0.6375],
[ 0.4622, -0.0794, 0.1851, 0.8462, -0.3591]])


  • 输入参数:


source_vocab = 11
target_vocab = 11
N = 6
# 其他参数都使用默认值


  • 调用:


if __name__ == '__main__':
res = make_model(source_vocab, target_vocab, N)
print(res)


  • 输出效果:


# 根据Transformer结构图构建的最终模型结构
EncoderDecoder(
(encoder): Encoder(
(layers): ModuleList(
(0): EncoderLayer(
(self_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(feed_forward): PositionwiseFeedForward(
(w_1): Linear(in_features=512, out_features=2048)
(w_2): Linear(in_features=2048, out_features=512)
(dropout): Dropout(p=0.1)
)
(sublayer): ModuleList(
(0): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(1): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
)
)
(1): EncoderLayer(
(self_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(feed_forward): PositionwiseFeedForward(
(w_1): Linear(in_features=512, out_features=2048)
(w_2): Linear(in_features=2048, out_features=512)
(dropout): Dropout(p=0.1)
)
(sublayer): ModuleList(
(0): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(1): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
)
)
)
(norm): LayerNorm(
)
)
(decoder): Decoder(
(layers): ModuleList(
(0): DecoderLayer(
(self_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(src_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(feed_forward): PositionwiseFeedForward(
(w_1): Linear(in_features=512, out_features=2048)
(w_2): Linear(in_features=2048, out_features=512)
(dropout): Dropout(p=0.1)
)
(sublayer): ModuleList(
(0): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(1): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(2): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
)
)
(1): DecoderLayer(
(self_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(src_attn): MultiHeadedAttention(
(linears): ModuleList(
(0): Linear(in_features=512, out_features=512)
(1): Linear(in_features=512, out_features=512)
(2): Linear(in_features=512, out_features=512)
(3): Linear(in_features=512, out_features=512)
)
(dropout): Dropout(p=0.1)
)
(feed_forward): PositionwiseFeedForward(
(w_1): Linear(in_features=512, out_features=2048)
(w_2): Linear(in_features=2048, out_features=512)
(dropout): Dropout(p=0.1)
)
(sublayer): ModuleList(
(0): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(1): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
(2): SublayerConnection(
(norm): LayerNorm(
)
(dropout): Dropout(p=0.1)
)
)
)
)
(norm): LayerNorm(
)
)
(src_embed): Sequential(
(0): Embeddings(
(lut): Embedding(11, 512)
)
(1): PositionalEncoding(
(dropout): Dropout(p=0.1)
)
)
(tgt_embed): Sequential(
(0): Embeddings(
(lut): Embedding(11, 512)
)
(1): PositionalEncoding(
(dropout): Dropout(p=0.1)
)
)
(generator): Generator(
(proj): Linear(in_features=512, out_features=11)
)
)


小节总结

  • 学习并实现了编码器-解码器结构的类: EncoderDecoder
    • 类的初始化函数传入5个参数, 分别是编码器对象, 解码器对象, 源数据嵌入函数, 目标数据嵌入函数, 以及输出部分的类别生成器对象.
    • 类中共实现三个函数, forward, encode, decode
    • forward是主要逻辑函数, 有四个参数, source代表源数据, target代表目标数据, source_mask和target_mask代表对应的掩码张量.
    • encode是编码函数, 以source和source_mask为参数.
    • decode是解码函数, 以memory即编码器的输出, source_mask, target, target_mask为参数

  • 学习并实现了模型构建函数: make_model
    • 有7个参数,分别是源数据特征(词汇)总数,目标数据特征(词汇)总数,编码器和解码器堆叠数,词向量映射维度,前馈全连接网络中变换矩阵的维度,多头注意力结构中的多头数,以及置零比率dropout.
    • 该函数最后返回一个构建好的模型对象.



2.7 模型基本测试运行


学习目标

  • 了解Transformer模型基本测试的copy任务.
  • 掌握实现copy任务的四步曲.

  • 我们将通过一个小的copy任务完成模型的基本测试工作.

  • copy任务介绍:
    • 任务描述: 针对数字序列进行学习, 学习的最终目标是使输出与输入的序列相同. 如输入[1, 5, 8, 9, 3], 输出也是[1, 5, 8, 9, 3].
    • 任务意义: copy任务在模型基础测试中具有重要意义,因为copy操作对于模型来讲是一条明显规律, 因此模型能否在短时间内,小数据集中学会它,可以帮助我们断定模型所有过程是否正常,是否已具备基本学习能力.

使用copy任务进行模型基本测试的四步曲

  • 第一步: 构建数据集生成器
  • 第二步: 获得Transformer模型及其优化器和损失函数
  • 第三步: 运行模型进行训练和评估
  • 第四步: 使用模型进行贪婪解码

  • 第一步: 构建数据集生成器


# 导入工具包Batch, 它能够对原始样本数据生成对应批次的掩码张量
from pyitcast.transformer_utils import Batch

def data_generator(V, batch, num_batch):
“””该函数用于随机生成copy任务的数据, 它的三个输入参数是V: 随机生成数字的最大值+1,
batch: 每次输送给模型更新一次参数的数据量, num_batch: 一共输送num_batch次完成一轮
“””
# 使用for循环遍历nbatches
for i in range(num_batch):
# 在循环中使用np的random.randint方法随机生成[1, V)的整数,
# 分布在(batch, 10)形状的矩阵中, 然后再把numpy形式转换称torch中的tensor.
data = torch.from_numpy(np.random.randint(1, V, size=(batch, 10)))

  1. # 接着使数据矩阵中的第一列数字都为1, 这一列也就成为了起始标志列, <br /> # 当解码器进行第一次解码的时候, 会使用起始标志列作为输入.<br /> data[:, 0] = 1
  2. # 因为是copy任务, 所有source与target是完全相同的, 且数据样本作用变量不需要求梯度<br /> # 因此requires_grad设置为False<br /> source = Variable(data, requires_grad=False)<br /> target = Variable(data, requires_grad=False)
  3. # 使用Batch对source和target进行对应批次的掩码张量生成, 最后使用yield返回<br /> yield Batch(source, target)

  • 输入参数:


# 将生成0-10的整数
V = 11

每次喂给模型20个数据进行参数更新
batch = 20

连续喂30次完成全部数据的遍历, 也就是1轮
num_batch = 30


  • 调用:


if __name__ == '__main__':
res = data_generator(V, batch, num_batch)
print(res)


  • 输出效果:


# 会得到一个数据生成器(生成器对象)


  • 第二步: 获得Transformer模型及其优化器和损失函数


# 导入优化器工具包get_std_opt, 该工具用于获得标准的针对Transformer模型的优化器
# 该标准优化器基于Adam优化器, 使其对序列到序列的任务更有效.
from pyitcast.transformer_utils import get_std_opt

导入标签平滑工具包, 该工具用于标签平滑, 标签平滑的作用就是小幅度的改变原有标签值的值域
# 因为在理论上即使是人工的标注数据也可能并非完全正确, 会受到一些外界因素的影响而产生一些微小的偏差
# 因此使用标签平滑来弥补这种偏差, 减少模型对某一条规律的绝对认知, 以防止过拟合. 通过下面示例了解更多.
from pyitcast.transformer_utils import LabelSmoothing

导入损失计算工具包, 该工具能够使用标签平滑后的结果进行损失的计算,
# 损失的计算方法可以认为是交叉熵损失函数.
from pyitcast.transformer_utils import SimpleLossCompute

使用make_model获得model
model = make_model(V, V, N=2)

使用get_std_opt获得模型优化器
model_optimizer = get_std_opt(model)

使用LabelSmoothing获得标签平滑对象
criterion = LabelSmoothing(size=V, padding_idx=0, smoothing=0.0)

使用SimpleLossCompute获得利用标签平滑结果的损失计算方法
loss = SimpleLossCompute(model.generator, criterion, model_optimizer)


  • 标签平滑示例:


from pyitcast.transformer_utils import LabelSmoothing

使用LabelSmoothing实例化一个crit对象.
# 第一个参数size代表目标数据的词汇总数, 也是模型最后一层得到张量的最后一维大小
# 这里是5说明目标词汇总数是5个. 第二个参数padding_idx表示要将那些tensor中的数字
# 替换成0, 一般padding_idx=0表示不进行替换. 第三个参数smoothing, 表示标签的平滑程度
# 如原来标签的表示值为1, 则平滑后它的值域变为[1-smoothing, 1+smoothing].
crit = LabelSmoothing(size=5, padding_idx=0, smoothing=0.5)

假定一个任意的模型最后输出预测结果和真实结果
predict = Variable(torch.FloatTensor([[0, 0.2, 0.7, 0.1, 0],
[0, 0.2, 0.7, 0.1, 0],
[0, 0.2, 0.7, 0.1, 0]]))

标签的表示值是0,1,2
target = Variable(torch.LongTensor([2, 1, 0]))

将predict, target传入到对象中
crit(predict, target)

绘制标签平滑图像
plt.imshow(crit.true_dist)


  • 标签平滑图像:

transformer - 图23


  • 标签平滑图像分析:
    • 我们目光集中在黄色小方块上, 它相对于横坐标横跨的值域就是标签平滑后的正向平滑值域, 我们可以看到大致是从0.5到2.5.
    • 它相对于纵坐标横跨的值域就是标签平滑后的负向平滑值域, 我们可以看到大致是从-0.5到1.5, 总的值域空间由原来的[0, 2]变成了[-0.5, 2.5].

  • 第三步: 运行模型进行训练和评估


# 导入模型单轮训练工具包run_epoch, 该工具将对模型使用给定的损失函数计算方法进行单轮参数更新.
# 并打印每轮参数更新的损失结果.
from pyitcast.transformer_utils import run_epoch

def run(model, loss, epochs=10):
“””模型训练函数, 共有三个参数, model代表将要进行训练的模型
loss代表使用的损失计算方法, epochs代表模型训练的轮数”””

  1. # 遍历轮数<br /> for epoch in range(epochs):<br /> # 模型使用训练模式, 所有参数将被更新<br /> model.train()<br /> # 训练时, batch_size是20<br /> run_epoch(data_generator(V, 8, 20), model, loss)
  2. # 模型使用评估模式, 参数将不会变化 <br /> model.eval()<br /> # 评估时, batch_size是5<br /> run_epoch(data_generator(V, 8, 5), model, loss)

  • 输入参数:


# 进行10轮训练
epochs = 10

model和loss都是来自上一步的结果


  • 输出效果:


Epoch Step: 1 Loss: 3.315704 Tokens per Sec: 309.740843
Epoch Step: 1 Loss: 2.602743 Tokens per Sec: 393.885743
Epoch Step: 1 Loss: 2.563469 Tokens per Sec: 347.746994
Epoch Step: 1 Loss: 2.065951 Tokens per Sec: 422.632783
Epoch Step: 1 Loss: 2.218468 Tokens per Sec: 346.982987
Epoch Step: 1 Loss: 1.771149 Tokens per Sec: 396.451901
Epoch Step: 1 Loss: 1.979203 Tokens per Sec: 350.384045
Epoch Step: 1 Loss: 1.648887 Tokens per Sec: 361.534817
Epoch Step: 1 Loss: 1.824539 Tokens per Sec: 349.660287
Epoch Step: 1 Loss: 1.550169 Tokens per Sec: 319.302558
Epoch Step: 1 Loss: 1.676636 Tokens per Sec: 369.678638
Epoch Step: 1 Loss: 1.394759 Tokens per Sec: 364.660371
Epoch Step: 1 Loss: 1.473153 Tokens per Sec: 324.016068
Epoch Step: 1 Loss: 1.142609 Tokens per Sec: 422.345444
Epoch Step: 1 Loss: 1.410883 Tokens per Sec: 365.395922
Epoch Step: 1 Loss: 0.828656 Tokens per Sec: 401.538655
Epoch Step: 1 Loss: 1.254409 Tokens per Sec: 346.133228
Epoch Step: 1 Loss: 0.745532 Tokens per Sec: 402.395937
Epoch Step: 1 Loss: 0.952969 Tokens per Sec: 324.858870
Epoch Step: 1 Loss: 0.373509 Tokens per Sec: 358.814760


  • 第四步: 使用模型进行贪婪解码


# 导入贪婪解码工具包greedy_decode, 该工具将对最终结进行贪婪解码
# 贪婪解码的方式是每次预测都选择概率最大的结果作为输出,
# 它不一定能获得全局最优性, 但却拥有最高的执行效率.
from pyitcast.transformer_utils import greedy_decode

def run(model, loss, epochs=10):
for epoch in range(epochs):
model.train()

  1. run_epoch(data_generator(V, 8, 20), model, loss)
  2. model.eval()
  3. run_epoch(data_generator(V, 8, 5), model, loss)
  4. # 模型进入测试模式<br /> model.eval()
  5. # 假定的输入张量<br /> source = Variable(torch.LongTensor([[1,3,2,5,4,6,7,8,9,10]]))
  6. # 定义源数据掩码张量, 因为元素都是1, 在我们这里1代表不遮掩<br /> # 因此相当于对源数据没有任何遮掩.<br /> source_mask = Variable(torch.ones(1, 1, 10))
  7. # 最后将model, src, src_mask, 解码的最大长度限制max_len, 默认为10<br /> # 以及起始标志数字, 默认为1, 我们这里使用的也是1<br /> result = greedy_decode(model, source, source_mask, max_len=10, start_symbol=1)<br /> print(result)

if name == ‘main‘:
run(model, loss)


  • 输出效果:


1 3 2 5 4 6 7 8 9 10
[torch.LongTensor of size 1x10]


小节总结

  • 学习了copy任务的相关知识:
    • 任务描述: 针对数字序列进行学习, 学习的最终目标是使输出与输入的序列相同. 如输入[1, 5, 8, 9, 3], 输出也是[1, 5, 8, 9, 3].
    • 任务意义: copy任务在模型基础测试中具有重要意义,因为copy操作对于模型来讲是一条明显规律, 因此模型能否在短时间内,小数据集中学会它,可以帮助我们断定模型所有过程是否正常,是否已具备基本学习能力.

  • 学习了使用copy任务进行模型基本测试的四步曲:
    • 第一步: 构建数据集生成器
    • 第二步: 获得Transformer模型及其优化器和损失函数
    • 第三步: 运行模型进行训练和评估
    • 第四步: 使用模型进行贪婪解码

  • 学习并实现了构建数据集生成器函数: data_gen
    • 它有三个输入参数, 分别是V: 随机生成数字的最大值+1, batch: 每次输送给模型更新一次参数的数据量, nbatches: 一共输送nbatches次完成一轮.
    • 该函数最终得到一个生成器对象.

  • 学习了获得Transformer模型及其优化器和损失函数:
    • 通过导入优化器工具包get_std_opt, 获得标准优化器.
    • 通过导入标签平滑工具包LabelSmoothing, 进行标签平滑.
    • 通过导入损失计算工具包SimpleLossCompute, 计算损失.

  • 学习并实现了运行模型进行训练和评估函数: run
    • 在函数中导入模型单轮训练工具包run_epoch, 对模型进行单轮训练.
    • 函数共有三个参数, model代表将要进行训练的模型, slc代表使用的损失计算方法, epochs代表模型训练的轮数.
    • 函数最终打印了模型训练和评估两个过程的损失.

  • 学习并实现了使用模型进行贪婪解码:
    • 通过导入贪婪解码工具包greedy_decode, 根据输入得到最后输出, 完成了copy任务.


第三章:Transformer经典案例

3.1 使用Transformer构建语言模型


学习目标

  • 了解有关语言模型的知识.
  • 掌握使用Transformer构建语言模型的实现过程.

  • 什么是语言模型:
    • 以一个符合语言规律的序列为输入,模型将利用序列间关系等特征,输出一个在所有词汇上的概率分布.这样的模型称为语言模型.


# 语言模型的训练语料一般来自于文章,对应的源文本和目标文本形如:
src1 = “I can do” tgt1 = “can do it”
src2 = “can do it”, tgt2 = “do it


  • 语言模型能解决哪些问题:
    • 1, 根据语言模型的定义,可以在它的基础上完成机器翻译,文本生成等任务,因为我们通过最后输出的概率分布来预测下一个词汇是什么.
    • 2, 语言模型可以判断输入的序列是否为一句完整的话,因为我们可以根据输出的概率分布查看最大概率是否落在句子结束符上,来判断完整性.
    • 3, 语言模型本身的训练目标是预测下一个词,因为它的特征提取部分会抽象很多语言序列之间的关系,这些关系可能同样对其他语言类任务有效果.因此可以作为预训练模型进行迁移学习.

整个案例的实现可分为以下五个步骤

  • 第一步: 导入必备的工具包
  • 第二步: 导入wikiText-2数据集并作基本处理
  • 第三步: 构建用于模型输入的批次化数据
  • 第四步: 构建训练和评估函数
  • 第五步: 进行训练和评估(包括验证以及测试)

第一步: 导入必备的工具包

  • pytorch版本必须使用1.3.1, python版本使用3.6.x


pip install torch==1.3.1



# 数学计算工具包math
import math

torch以及torch.nn, torch.nn.functional
import torch
import torch.nn as nn
import torch.nn.functional as F

torch中经典文本数据集有关的工具包
# 具体详情参考下方torchtext介绍
import torchtext

torchtext中的数据处理工具, get_tokenizer用于英文分词
from torchtext.data.utils import get_tokenizer

已经构建完成的TransformerModel
from pyitcast.transformer import TransformerModel


  • torchtext介绍:
    • 它是torch工具中处理NLP问题的常用数据处理包.

  • torchtext的重要功能:
    • 对文本数据进行处理, 比如文本语料加载, 文本迭代器构建等.
    • 包含很多经典文本语料的预加载方法. 其中包括的语料有:用于情感分析的SST和IMDB, 用于问题分类的TREC, 用于及其翻译的 WMT14, IWSLT,以及用于语言模型任务wikiText-2, WikiText103, PennTreebank.

  • 我们这里使用wikiText-2来训练语言模型, 下面有关该数据集的相关详情:

transformer - 图24


  • wikiText-2数据集的体量中等, 训练集共有600篇短文, 共208万左右的词汇, 33278个不重复词汇, OoV(有多少正常英文词汇不在该数据集中的占比)为2.6%,数据集中的短文都是维基百科中对一些概念的介绍和描述.

第二步: 导入wikiText-2数据集并作基本处理


# 创建语料域, 语料域是存放语料的数据结构,
# 它的四个参数代表给存放语料(或称作文本)施加的作用.
# 分别为 tokenize,使用get_tokenizer(“basic_english”)获得一个分割器对象,
# 分割方式按照文本为基础英文进行分割.
# init_token为给文本施加的起始符 给文本施加的终止符,
# 最后一个lower为True, 存放的文本字母全部小写.
TEXT = torchtext.data.Field(tokenize=get_tokenizer(“basic_english”),
init_token=’‘,
eos_token=’‘,
lower=True)

最终获得一个Field对象.
#

然后使用torchtext的数据集方法导入WikiText2数据,
# 并切分为对应训练文本, 验证文本,测试文本, 并对这些文本施加刚刚创建的语料域.
train_txt, val_txt, test_txt = torchtext.datasets.WikiText2.splits(TEXT)

我们可以通过examples[0].text取出文本对象进行查看.
# >>> test_txt.examples[0].text[:10]
# [‘‘, ‘=’, ‘robert’, ‘‘, ‘=’, ‘‘, ‘‘, ‘robert’, ‘‘, ‘is’]

将训练集文本数据构建一个vocab对象,
# 这样可以使用vocab对象的stoi方法统计文本共包含的不重复词汇总数.
TEXT.build_vocab(train_txt)

然后选择设备cuda或者cpu
device = torch.device(“cuda” if torch.cuda.is_available() else “cpu”)


  • 该案例的所有代码都将实现在一个transformer_lm.py文件中.

第三步: 构建用于模型输入的批次化数据

  • 批次化过程的第一个函数batchify代码分析:


def batchify(data, bsz):
“””batchify函数用于将文本数据映射成连续数字, 并转换成指定的样式, 指定的样式可参考下图.
它有两个输入参数, data就是我们之前得到的文本数据(train_txt, val_txt, test_txt),
bsz是就是batch_size, 每次模型更新参数的数据量”””
# 使用TEXT的numericalize方法将单词映射成对应的连续数字.
data = TEXT.numericalize([data.examples[0].text])
# >>> data
# tensor([[ 3],
# [ 12],
# [3852],
# …,
# [ 6],
# [ 3],
# [ 3]])

  1. # 接着用数据词汇总数除以bsz,<br /> # 取整数得到一个nbatch代表需要多少次batch后能够遍历完所有数据<br /> nbatch = data.size(0) // bsz
  2. # 之后使用narrow方法对不规整的剩余数据进行删除,<br /> # 第一个参数是代表横轴删除还是纵轴删除, 0为横轴,1为纵轴<br /> # 第二个和第三个参数代表保留开始轴到结束轴的数值.类似于切片<br /> # 可参考下方演示示例进行更深理解.<br /> data = data.narrow(0, 0, nbatch * bsz)<br /> # >>> data<br /> # tensor([[ 3],<br /> # [ 12],<br /> # [3852],<br /> # ...,<br /> # [ 78],<br /> # [ 299],<br /> # [ 36]])<br /> # 后面不能形成bsz个的一组数据被删除
  3. # 接着我们使用view方法对data进行矩阵变换, 使其成为如下样式:<br /> # tensor([[ 3, 25, 1849, ..., 5, 65, 30],<br /> # [ 12, 66, 13, ..., 35, 2438, 4064],<br /> # [ 3852, 13667, 2962, ..., 902, 33, 20],<br /> # ...,<br /> # [ 154, 7, 10, ..., 5, 1076, 78],<br /> # [ 25, 4, 4135, ..., 4, 56, 299],<br /> # [ 6, 57, 385, ..., 3168, 737, 36]])<br /> # 因为会做转置操作, 因此这个矩阵的形状是[None, bsz],<br /> # 如果输入是训练数据的话,形状为[104335, 20], 可以通过打印data.shape获得.<br /> # 也就是data的列数是等于bsz的值的.<br /> data = data.view(bsz, -1).t().contiguous()<br /> # 最后将数据分配在指定的设备上.<br /> return data.to(device)

  • batchify的样式转化图:

transformer - 图25

  • 大写字母A,B,C … 代表句子中的每个单词.

  • torch.narrow演示:


>>> x = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
>>> x.narrow(0, 0, 2)
tensor([[ 1, 2, 3],
[ 4, 5, 6]])
>>> x.narrow(1, 1, 2)
tensor([[ 2, 3],
[ 5, 6],
[ 8, 9]])


  • 接下来我们将使用batchify来处理训练数据,验证数据以及测试数据


# 训练数据的batch size
batch_size = 20

验证和测试数据(统称为评估数据)的batch size
eval_batch_size = 10

获得train_data, val_data, test_data
train_data = batchify(train_txt, batch_size)
val_data = batchify(val_txt, eval_batch_size)
test_data = batchify(test_txt, eval_batch_size)


  • 上面的分割批次并没有进行源数据与目标数据的处理, 接下来我们将根据语言模型训练的语料规定来构建源数据与目标数据.

  • 语言模型训练的语料规定:
    • 如果源数据为句子ABCD, ABCD代表句子中的词汇或符号, 则它的目标数据为BCDE, BCDE分别代表ABCD的下一个词汇.

transformer - 图26

  • 如图所示,我们这里的句子序列是竖着的, 而且我们发现如果用一个批次处理完所有数据, 以训练数据为例, 每个句子长度高达104335, 这明显是不科学的, 因此我们在这里要限定每个批次中的句子长度允许的最大值bptt.

  • 批次化过程的第二个函数get_batch代码分析:


# 令子长度允许的最大值bptt为35
bptt = 35

def get_batch(source, i):
“””用于获得每个批次合理大小的源数据和目标数据.
参数source是通过batchify得到的train_data/val_data/test_data.
i是具体的批次次数.
“””

  1. # 首先我们确定句子长度, 它将是在bptt和len(source) - 1 - i中最小值<br /> # 实质上, 前面的批次中都会是bptt的值, 只不过最后一个批次中, 句子长度<br /> # 可能不够bptt的35个, 因此会变为len(source) - 1 - i的值.<br /> seq_len = min(bptt, len(source) - 1 - i)
  2. # 语言模型训练的源数据的第i批数据将是batchify的结果的切片[i:i+seq_len]<br /> data = source[i:i+seq_len]
  3. # 根据语言模型训练的语料规定, 它的目标数据是源数据向后移动一位<br /> # 因为最后目标数据的切片会越界, 因此使用view(-1)来保证形状正常.<br /> target = source[i+1:i+1+seq_len].view(-1)<br /> return data, target

  • 输入实例:


# 以测试集数据为例
source = test_data
i = 1


  • 输出效果:


data = tensor([[ 12, 1053, 355, 134, 37, 7, 4, 0, 835, 9834],
[ 635, 8, 5, 5, 421, 4, 88, 8, 573, 2511],
[ 0, 58, 8, 8, 6, 692, 544, 0, 212, 5],
[ 12, 0, 105, 26, 3, 5, 6, 0, 4, 56],
[ 3, 16074, 21254, 320, 3, 262, 16, 6, 1087, 89],
[ 3, 751, 3866, 10, 12, 31, 246, 238, 79, 49],
[ 635, 943, 78, 36, 12, 475, 66, 10, 4, 924],
[ 0, 2358, 52, 4, 12, 4, 5, 0, 19831, 21],
[ 26, 38, 54, 40, 1589, 3729, 1014, 5, 8, 4],
[ 33, 17597, 33, 1661, 15, 7, 5, 0, 4, 170],
[ 335, 268, 117, 0, 0, 4, 3144, 1557, 0, 160],
[ 106, 4, 4706, 2245, 12, 1074, 13, 2105, 5, 29],
[ 5, 16074, 10, 1087, 12, 137, 251, 13238, 8, 4],
[ 394, 746, 4, 9, 12, 6032, 4, 2190, 303, 12651],
[ 8, 616, 2107, 4, 3, 4, 425, 0, 10, 510],
[ 1339, 112, 23, 335, 3, 22251, 1162, 9, 11, 9],
[ 1212, 468, 6, 820, 9, 7, 1231, 4202, 2866, 382],
[ 6, 24, 104, 6, 4, 4, 7, 10, 9, 588],
[ 31, 190, 0, 0, 230, 267, 4, 273, 278, 6],
[ 34, 25, 47, 26, 1864, 6, 694, 0, 2112, 3],
[ 11, 6, 52, 798, 8, 69, 20, 31, 63, 9],
[ 1800, 25, 2141, 2442, 117, 31, 196, 7290, 4, 298],
[ 15, 171, 15, 17, 1712, 13, 217, 59, 736, 5],
[ 4210, 191, 142, 14, 5251, 939, 59, 38, 10055, 25132],
[ 302, 23, 11718, 11, 11, 599, 382, 317, 8, 13],
[ 16, 1564, 9, 4808, 6, 0, 6, 6, 4, 4],
[ 4, 7, 39, 7, 3934, 5, 9, 3, 8047, 557],
[ 394, 0, 10715, 3580, 8682, 31, 242, 0, 10055, 170],
[ 96, 6, 144, 3403, 4, 13, 1014, 14, 6, 2395],
[ 4, 3, 13729, 14, 40, 0, 5, 18, 676, 3267],
[ 1031, 3, 0, 628, 1589, 22, 10916, 10969, 5, 22548],
[ 9, 12, 6, 84, 15, 49, 3144, 7, 102, 15],
[ 916, 12, 4, 203, 0, 273, 303, 333, 4318, 0],
[ 6, 12, 0, 4842, 5, 17, 4, 47, 4138, 2072],
[ 38, 237, 5, 50, 35, 27, 18530, 244, 20, 6]])

target = tensor([ 635, 8, 5, 5, 421, 4, 88, 8, 573, 2511,
0, 58, 8, 8, 6, 692, 544, 0, 212, 5,
12, 0, 105, 26, 3, 5, 6, 0, 4, 56,
3, 16074, 21254, 320, 3, 262, 16, 6, 1087, 89,
3, 751, 3866, 10, 12, 31, 246, 238, 79, 49,
635, 943, 78, 36, 12, 475, 66, 10, 4, 924,
0, 2358, 52, 4, 12, 4, 5, 0, 19831, 21,
26, 38, 54, 40, 1589, 3729, 1014, 5, 8, 4,
33, 17597, 33, 1661, 15, 7, 5, 0, 4, 170,
335, 268, 117, 0, 0, 4, 3144, 1557, 0, 160,
106, 4, 4706, 2245, 12, 1074, 13, 2105, 5, 29,
5, 16074, 10, 1087, 12, 137, 251, 13238, 8, 4,
394, 746, 4, 9, 12, 6032, 4, 2190, 303, 12651,
8, 616, 2107, 4, 3, 4, 425, 0, 10, 510,
1339, 112, 23, 335, 3, 22251, 1162, 9, 11, 9,
1212, 468, 6, 820, 9, 7, 1231, 4202, 2866, 382,
6, 24, 104, 6, 4, 4, 7, 10, 9, 588,
31, 190, 0, 0, 230, 267, 4, 273, 278, 6,
34, 25, 47, 26, 1864, 6, 694, 0, 2112, 3,
11, 6, 52, 798, 8, 69, 20, 31, 63, 9,
1800, 25, 2141, 2442, 117, 31, 196, 7290, 4, 298,
15, 171, 15, 17, 1712, 13, 217, 59, 736, 5,
4210, 191, 142, 14, 5251, 939, 59, 38, 10055, 25132,
302, 23, 11718, 11, 11, 599, 382, 317, 8, 13,
16, 1564, 9, 4808, 6, 0, 6, 6, 4, 4,
4, 7, 39, 7, 3934, 5, 9, 3, 8047, 557,
394, 0, 10715, 3580, 8682, 31, 242, 0, 10055, 170,
96, 6, 144, 3403, 4, 13, 1014, 14, 6, 2395,
4, 3, 13729, 14, 40, 0, 5, 18, 676, 3267,
1031, 3, 0, 628, 1589, 22, 10916, 10969, 5, 22548,
9, 12, 6, 84, 15, 49, 3144, 7, 102, 15,
916, 12, 4, 203, 0, 273, 303, 333, 4318, 0,
6, 12, 0, 4842, 5, 17, 4, 47, 4138, 2072,
38, 237, 5, 50, 35, 27, 18530, 244, 20, 6,
13, 1083, 35, 1990, 653, 13, 10, 11, 1538, 56])


第四步: 构建训练和评估函数

  • 设置模型超参数和初始化模型


# 通过TEXT.vocab.stoi方法获得不重复词汇总数
ntokens = len(TEXT.vocab.stoi)

词嵌入大小为200
emsize = 200

前馈全连接层的节点数
nhid = 200

编码器层的数量
nlayers = 2

多头注意力机制的头数
nhead = 2

置0比率
dropout = 0.2

将参数输入到TransformerModel中
model = TransformerModel(ntokens, emsize, nhead, nhid, nlayers, dropout).to(device)

模型初始化后, 接下来进行损失函数和优化方法的选择.

关于损失函数, 我们使用nn自带的交叉熵损失
criterion = nn.CrossEntropyLoss()

学习率初始值定为5.0
lr = 5.0

优化器选择torch自带的SGD随机梯度下降方法, 并把lr传入其中
optimizer = torch.optim.SGD(model.parameters(), lr=lr)

定义学习率调整方法, 使用torch自带的lr_scheduler, 将优化器传入其中.
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, 1.0, gamma=0.95)


  • 模型训练代码分析:


# 导入时间工具包
import time

def train():
“””训练函数”””
# 模型开启训练模式
model.train()
# 定义初始损失为0
totalloss = 0.
# 获得当前时间
start_time = time.time()
# 开始遍历批次数据
for batch, i in enumerate(range(0, train_data.size(0) - 1, bptt)):
# 通过get_batch获得源数据和目标数据
data, targets = get_batch(train_data, i)
# 设置优化器初始梯度为0梯度
optimizer.zero_grad()
# 将数据装入model得到输出
output = model(data)
# 将输出和目标数据传入损失函数对象
loss = criterion(output.view(-1, ntokens), targets)
# 损失进行反向传播以获得总的损失
loss.backward()
# 使用nn自带的clip_grad_norm
方法进行梯度规范化, 防止出现梯度消失或爆炸
torch.nn.utils.clipgrad_norm(model.parameters(), 0.5)
# 模型参数进行更新
optimizer.step()
# 将每层的损失相加获得总的损失
total_loss += loss.item()
# 日志打印间隔定为200
log_interval = 200
# 如果batch是200的倍数且大于0,则打印相关日志
if batch % log_interval == 0 and batch > 0:
# 平均损失为总损失除以log_interval
cur_loss = total_loss / log_interval
# 需要的时间为当前时间减去开始时间
elapsed = time.time() - start_time
# 打印轮数, 当前批次和总批次, 当前学习率, 训练速度(每豪秒处理多少批次),
# 平均损失, 以及困惑度, 困惑度是衡量语言模型的重要指标, 它的计算方法就是
# 对交叉熵平均损失取自然对数的底数.
print(‘| epoch {:3d} | {:5d}/{:5d} batches | ‘
‘lr {:02.2f} | ms/batch {:5.2f} | ‘
‘loss {:5.2f} | ppl {:8.2f}’.format(
epoch, batch, len(train_data) // bptt, scheduler.get_lr()[0],
elapsed * 1000 / log_interval,
cur_loss, math.exp(cur_loss)))

  1. # 每个批次结束后, 总损失归0<br /> total_loss = 0<br /> # 开始时间取当前时间<br /> start_time = time.time()

  • 模型评估代码分析:


def evaluate(eval_model, data_source):
“””评估函数, 评估阶段包括验证和测试,
它的两个参数eval_model为每轮训练产生的模型
data_source代表验证或测试数据集”””
# 模型开启评估模式
eval_model.eval()
# 总损失归0
total_loss = 0
# 因为评估模式模型参数不变, 因此反向传播不需要求导, 以加快计算
with torch.no_grad():
# 与训练过程相同, 但是因为过程不需要打印信息, 因此不需要batch数
for i in range(0, data_source.size(0) - 1, bptt):
# 首先还是通过通过get_batch获得验证数据集的源数据和目标数据
data, targets = get_batch(data_source, i)
# 通过eval_model获得输出
output = eval_model(data)
# 对输出形状扁平化, 变为全部词汇的概率分布
output_flat = output.view(-1, ntokens)
# 获得评估过程的总损失
total_loss += criterion(output_flat, targets).item()
# 计算平均损失
cur_loss = total_loss / ((data_source.size(0) - 1) / bptt)

  1. # 返回平均损失<br /> return cur_loss

第五步: 进行训练和评估(包括验证以及测试)

  • 模型的训练与验证代码分析:


# 首先初始化最佳验证损失,初始值为无穷大
import copy
best_val_loss = float(“inf”)

定义训练轮数
epochs = 3

定义最佳模型变量, 初始值为None
best_model = None

使用for循环遍历轮数
for epoch in range(1, epochs + 1):
# 首先获得轮数开始时间
epoch_start_time = time.time()
# 调用训练函数
train()
# 该轮训练后我们的模型参数已经发生了变化
# 将模型和评估数据传入到评估函数中
val_loss = evaluate(model, val_data)
# 之后打印每轮的评估日志,分别有轮数,耗时,验证损失以及验证困惑度
print(‘-‘ 89)
print(‘| end of epoch {:3d} | time: {:5.2f}s | valid loss {:5.2f} | ‘
‘valid ppl {:8.2f}’.format(epoch, (time.time() - epoch_start_time),
val_loss, math.exp(val_loss)))
print(‘-‘
89)
# 我们将比较哪一轮损失最小,赋值给best_val_loss,
# 并取该损失下的模型为best_model
if val_loss < best_val_loss:
best_val_loss = val_loss
# 使用深拷贝,拷贝最优模型
best_model = copy.deepcopy(model)
# 每轮都会对优化方法的学习率做调整
scheduler.step()

  • 输出效果:


| epoch 1 | 200/ 2981 batches | lr 5.00 | ms/batch 30.03 | loss 7.68 | ppl 2158.52
| epoch 1 | 400/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 5.26 | ppl 193.39
| epoch 1 | 600/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 4.07 | ppl 58.44
| epoch 1 | 800/ 2981 batches | lr 5.00 | ms/batch 28.88 | loss 3.41 | ppl 30.26
| epoch 1 | 1000/ 2981 batches | lr 5.00 | ms/batch 28.89 | loss 2.98 | ppl 19.72
| epoch 1 | 1200/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 2.79 | ppl 16.30
| epoch 1 | 1400/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.67 | ppl 14.38
| epoch 1 | 1600/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.58 | ppl 13.19
| epoch 1 | 1800/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.43 | ppl 11.32
| epoch 1 | 2000/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.39 | ppl 10.93
| epoch 1 | 2200/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.33 | ppl 10.24
| epoch 1 | 2400/ 2981 batches | lr 5.00 | ms/batch 28.91 | loss 2.36 | ppl 10.59
| epoch 1 | 2600/ 2981 batches | lr 5.00 | ms/batch 28.90 | loss 2.33 | ppl 10.31
| epoch 1 | 2800/ 2981 batches | lr 5.00 | ms/batch 28.92 | loss 2.26 | ppl 9.54
————————————————————————————————————————————-
| end of epoch 1 | time: 90.01s | valid loss 1.32 | valid ppl 3.73
————————————————————————————————————————————-
| epoch 2 | 200/ 2981 batches | lr 4.75 | ms/batch 29.08 | loss 2.18 | ppl 8.83
| epoch 2 | 400/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 2.11 | ppl 8.24
| epoch 2 | 600/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.98 | ppl 7.23
| epoch 2 | 800/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 2.00 | ppl 7.39
| epoch 2 | 1000/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.94 | ppl 6.96
| epoch 2 | 1200/ 2981 batches | lr 4.75 | ms/batch 28.92 | loss 1.97 | ppl 7.15
| epoch 2 | 1400/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.98 | ppl 7.28
| epoch 2 | 1600/ 2981 batches | lr 4.75 | ms/batch 28.92 | loss 1.97 | ppl 7.16
| epoch 2 | 1800/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.92 | ppl 6.84
| epoch 2 | 2000/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.96 | ppl 7.11
| epoch 2 | 2200/ 2981 batches | lr 4.75 | ms/batch 28.93 | loss 1.92 | ppl 6.80
| epoch 2 | 2400/ 2981 batches | lr 4.75 | ms/batch 28.94 | loss 1.94 | ppl 6.93
| epoch 2 | 2600/ 2981 batches | lr 4.75 | ms/batch 28.76 | loss 1.91 | ppl 6.76
| epoch 2 | 2800/ 2981 batches | lr 4.75 | ms/batch 28.75 | loss 1.89 | ppl 6.64
————————————————————————————————————————————-
| end of epoch 2 | time: 89.71s | valid loss 1.01 | valid ppl 2.74
————————————————————————————————————————————-
| epoch 3 | 200/ 2981 batches | lr 4.51 | ms/batch 28.88 | loss 1.78 | ppl 5.96
| epoch 3 | 400/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.89 | ppl 6.59
| epoch 3 | 600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.72 | ppl 5.58
| epoch 3 | 800/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.73 | ppl 5.63
| epoch 3 | 1000/ 2981 batches | lr 4.51 | ms/batch 28.73 | loss 1.65 | ppl 5.22
| epoch 3 | 1200/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.69 | ppl 5.40
| epoch 3 | 1400/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.73 | ppl 5.66
| epoch 3 | 1600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.75 | ppl 5.73
| epoch 3 | 1800/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.67 | ppl 5.33
| epoch 3 | 2000/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.69 | ppl 5.41
| epoch 3 | 2200/ 2981 batches | lr 4.51 | ms/batch 28.74 | loss 1.66 | ppl 5.26
| epoch 3 | 2400/ 2981 batches | lr 4.51 | ms/batch 28.76 | loss 1.69 | ppl 5.43
| epoch 3 | 2600/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.71 | ppl 5.55
| epoch 3 | 2800/ 2981 batches | lr 4.51 | ms/batch 28.75 | loss 1.72 | ppl 5.58
————————————————————————————————————————————-
| end of epoch 3 | time: 89.26s | valid loss 0.85 | valid ppl 2.33
————————————————————————————————————————————-


  • 模型测试代码分析:


# 我们仍然使用evaluate函数,这次它的参数是best_model以及测试数据
test_loss = evaluate(best_model, test_data)

打印测试日志,包括测试损失和测试困惑度
print(‘=’ 89)
print(‘| End of training | test loss {:5.2f} | test ppl {:8.2f}’.format(
test_loss, math.exp(test_loss)))
print(‘=’
89)


  • 输出效果:


=========================================================================================
| End of training | test loss 0.83 | test ppl 2.30
=========================================================================================


小节总结

  • 学习了什么是语言模型:
    • 以一个符合语言规律的序列为输入,模型将利用序列间关系等特征,输出一个在所有词汇上的概率分布.这样的模型称为语言模型.

  • 学习了语言模型能解决哪些问题:
    • 1, 根据语言模型的定义,可以在它的基础上完成机器翻译,文本生成等任务,因为我们通过最后输出的概率分布来预测下一个词汇是什么.
    • 2, 语言模型可以判断输入的序列是否为一句完整的话,因为我们可以根据输出的概率分布查看最大概率是否落在句子结束符上,来判断完整性.
    • 3, 语言模型本身的训练目标是预测下一个词,因为它的特征提取部分会抽象很多语言序列之间的关系,这些关系可能同样对其他语言类任务有效果.因此可以作为预训练模型进行迁移学习.

  • 学习并实现了整个案例的五个步骤:
    • 第一步: 导入必备的工具包
    • 第二步: 导入wikiText-2数据集并作基本处理
    • 第三步: 构建用于模型输入的批次化数据
    • 第四步: 构建训练和评估函数
    • 第五步: 进行训练和评估(包括验证以及测试)

  • 第一步: 导入必备的工具包
    • torchtext介绍: 它是torch工具中处理NLP问题的常用数据处理包.
    • 对文本数据进行处理, 比如文本语料加载, 文本迭代器构建等.
    • 包含很多经典文本语料的预加载方法. 其中包括的语料有:用于情感分析的SST和IMDB, 用于问题分类的TREC, 用于及其翻译的 WMT14, IWSLT,以及用于语言模型任务wikiText-2, WikiText103, PennTreebank.
    • wikiText-2数据集的体量中等, 训练集共有600篇短文, 共208万左右的词汇, 33278个不重复词汇, OvV(有多少正常英文词汇不在该数据集中的占比)为2.6%,数据集中的短文都是维基百科中对一些概念的介绍和描述.

  • 第二步: 导入wikiText-2数据集并作基本处理
    • 通过torchtext中的方法获得了train_txt, val_txt, test_txt.

  • 第三步: 构建用于模型输入的批次化数据
    • 实现了批次化过程的第一个函数batchify, 用于将文本数据映射成连续数字, 并转换成指定的样式.
    • 实现了批次化过程的第二个函数get_batch, 用于获得每个批次合理大小的源数据和目标数据.

  • 第四步: 构建训练和评估函数
    • 构建了用于训练的函数train()
    • 构建了用于评估的函数evaluate()

  • 第五步: 进行训练和评估(包括验证以及测试)
    • 首先实现了模型训练与验证过程, 并打印了结果.
    • 最后实现了模型的测试过程, 得到了不错的困惑度指标.