我们已经在前两节中表征并变换了不定长的输入序列。但在自然语言处理的很多应用中,输入和输出都可以是不定长序列。以机器翻译为例,输入可以是一段不定长的英语文本序列,输出可以是一段不定长的法语文本序列,例如

英语输入:“They”、“are”、“watching”、“.”

法语输出:“Ils”、“regardent”、“.”

当输入和输出都是不定长序列时,我们可以使用编码器—解码器(encoder-decoder)[1] 或者seq2seq模型 [2]。这两个模型本质上都用到了两个循环神经网络,分别叫做编码器和解码器。编码器用来分析输入序列,解码器用来生成输出序列。

图10.8描述了使用编码器—解码器将上述英语句子翻译成法语句子的一种方法。在训练数据集中,我们可以在每个句子后附上特殊符号“”(end of sequence)以表示序列的终止。编码器每个时间步的输入依次为英语句子中的单词、标点和特殊符号“”。图10.8中使用了编码器在最终时间步的隐藏状态作为输入句子的表征或编码信息。解码器在各个时间步中使用输入句子的编码信息和上个时间步的输出以及隐藏状态作为输入。我们希望解码器在各个时间步能正确依次输出翻译后的法语单词、标点和特殊符号”“。需要注意的是,解码器在最初时间步的输入用到了一个表示序列开始的特殊符号”“(beginning of sequence)。

10.9_seq2seq.svg

接下来,我们分别介绍编码器和解码器的定义。

10.9.1 编码器

编码器的作用是把一个不定长的输入序列变换成一个定长的背景变量10.9 编码器—解码器(seq2seq) - 图2,并在该背景变量中编码输入序列信息。常用的编码器是循环神经网络。

让我们考虑批量大小为1的时序数据样本。假设输入序列是10.9 编码器—解码器(seq2seq) - 图3,例如10.9 编码器—解码器(seq2seq) - 图4是输入句子中的第10.9 编码器—解码器(seq2seq) - 图5个词。在时间步10.9 编码器—解码器(seq2seq) - 图6,循环神经网络将输入10.9 编码器—解码器(seq2seq) - 图7的特征向量10.9 编码器—解码器(seq2seq) - 图8和上个时间步的隐藏状态10.9 编码器—解码器(seq2seq) - 图9变换为当前时间步的隐藏状态10.9 编码器—解码器(seq2seq) - 图10。我们可以用函数10.9 编码器—解码器(seq2seq) - 图11表达循环神经网络隐藏层的变换:

10.9 编码器—解码器(seq2seq) - 图12.%0A#card=math&code=%5Cboldsymbol%7Bh%7Dt%20%3D%20f%28%5Cboldsymbol%7Bx%7D_t%2C%20%5Cboldsymbol%7Bh%7D%7Bt-1%7D%29.%0A)

接下来,编码器通过自定义函数10.9 编码器—解码器(seq2seq) - 图13将各个时间步的隐藏状态变换为背景变量

10.9 编码器—解码器(seq2seq) - 图14.%0A#card=math&code=%5Cboldsymbol%7Bc%7D%20%3D%20%20q%28%5Cboldsymbol%7Bh%7D_1%2C%20%5Cldots%2C%20%5Cboldsymbol%7Bh%7D_T%29.%0A)

例如,当选择10.9 编码器—解码器(seq2seq) - 图15%20%3D%20%5Cboldsymbol%7Bh%7D_T#card=math&code=q%28%5Cboldsymbol%7Bh%7D_1%2C%20%5Cldots%2C%20%5Cboldsymbol%7Bh%7D_T%29%20%3D%20%5Cboldsymbol%7Bh%7D_T)时,背景变量是输入序列最终时间步的隐藏状态10.9 编码器—解码器(seq2seq) - 图16

以上描述的编码器是一个单向的循环神经网络,每个时间步的隐藏状态只取决于该时间步及之前的输入子序列。我们也可以使用双向循环神经网络构造编码器。在这种情况下,编码器每个时间步的隐藏状态同时取决于该时间步之前和之后的子序列(包括当前时间步的输入),并编码了整个序列的信息。

10.9.2 解码器

刚刚已经介绍,编码器输出的背景变量10.9 编码器—解码器(seq2seq) - 图17编码了整个输入序列10.9 编码器—解码器(seq2seq) - 图18的信息。给定训练样本中的输出序列10.9 编码器—解码器(seq2seq) - 图19,对每个时间步10.9 编码器—解码器(seq2seq) - 图20(符号与输入序列或编码器的时间步10.9 编码器—解码器(seq2seq) - 图21有区别),解码器输出10.9 编码器—解码器(seq2seq) - 图22的条件概率将基于之前的输出序列10.9 编码器—解码器(seq2seq) - 图23和背景变量10.9 编码器—解码器(seq2seq) - 图24,即10.9 编码器—解码器(seq2seq) - 图25#card=math&code=P%28y%7Bt%27%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt%27-1%7D%2C%20%5Cboldsymbol%7Bc%7D%29)。

为此,我们可以使用另一个循环神经网络作为解码器。在输出序列的时间步10.9 编码器—解码器(seq2seq) - 图26,解码器将上一时间步的输出10.9 编码器—解码器(seq2seq) - 图27以及背景变量10.9 编码器—解码器(seq2seq) - 图28作为输入,并将它们与上一时间步的隐藏状态10.9 编码器—解码器(seq2seq) - 图29变换为当前时间步的隐藏状态10.9 编码器—解码器(seq2seq) - 图30。因此,我们可以用函数10.9 编码器—解码器(seq2seq) - 图31表达解码器隐藏层的变换:

10.9 编码器—解码器(seq2seq) - 图32.%0A#card=math&code=%5Cboldsymbol%7Bs%7D%7Bt%5E%5Cprime%7D%20%3D%20g%28y%7Bt%5E%5Cprime-1%7D%2C%20%5Cboldsymbol%7Bc%7D%2C%20%5Cboldsymbol%7Bs%7D_%7Bt%5E%5Cprime-1%7D%29.%0A)

有了解码器的隐藏状态后,我们可以使用自定义的输出层和softmax运算来计算10.9 编码器—解码器(seq2seq) - 图33#card=math&code=P%28y%7Bt%5E%5Cprime%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt%5E%5Cprime-1%7D%2C%20%5Cboldsymbol%7Bc%7D%29),例如,基于当前时间步的解码器隐藏状态 10.9 编码器—解码器(seq2seq) - 图34、上一时间步的输出10.9 编码器—解码器(seq2seq) - 图35以及背景变量10.9 编码器—解码器(seq2seq) - 图36来计算当前时间步输出10.9 编码器—解码器(seq2seq) - 图37的概率分布。

10.9.3 训练模型

根据最大似然估计,我们可以最大化输出序列基于输入序列的条件概率

10.9 编码器—解码器(seq2seq) - 图38%0A%26%3D%20%5Cprod%7Bt’%3D1%7D%5E%7BT’%7D%20P(y%7Bt’%7D%20%5Cmid%20y1%2C%20%5Cldots%2C%20y%7Bt’-1%7D%2C%20x1%2C%20%5Cldots%2C%20x_T)%5C%5C%0A%26%3D%20%5Cprod%7Bt’%3D1%7D%5E%7BT’%7D%20P(y%7Bt’%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt’-1%7D%2C%20%5Cboldsymbol%7Bc%7D)%2C%0A%5Cend%7Baligned%7D%0A#card=math&code=%5Cbegin%7Baligned%7D%0AP%28y1%2C%20%5Cldots%2C%20y%7BT%27%7D%20%5Cmid%20x1%2C%20%5Cldots%2C%20x_T%29%0A%26%3D%20%5Cprod%7Bt%27%3D1%7D%5E%7BT%27%7D%20P%28y%7Bt%27%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt%27-1%7D%2C%20x1%2C%20%5Cldots%2C%20x_T%29%5C%5C%0A%26%3D%20%5Cprod%7Bt%27%3D1%7D%5E%7BT%27%7D%20P%28y%7Bt%27%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt%27-1%7D%2C%20%5Cboldsymbol%7Bc%7D%29%2C%0A%5Cend%7Baligned%7D%0A)

并得到该输出序列的损失

10.9 编码器—解码器(seq2seq) - 图39%20%3D%20-%5Csum%7Bt’%3D1%7D%5E%7BT’%7D%20%5Clog%20P(y%7Bt’%7D%20%5Cmid%20y1%2C%20%5Cldots%2C%20y%7Bt’-1%7D%2C%20%5Cboldsymbol%7Bc%7D)%2C%0A#card=math&code=-%5Clog%20P%28y1%2C%20%5Cldots%2C%20y%7BT%27%7D%20%5Cmid%20x1%2C%20%5Cldots%2C%20x_T%29%20%3D%20-%5Csum%7Bt%27%3D1%7D%5E%7BT%27%7D%20%5Clog%20P%28y%7Bt%27%7D%20%5Cmid%20y_1%2C%20%5Cldots%2C%20y%7Bt%27-1%7D%2C%20%5Cboldsymbol%7Bc%7D%29%2C%0A)

在模型训练中,所有输出序列损失的均值通常作为需要最小化的损失函数。在图10.8所描述的模型预测中,我们需要将解码器在上一个时间步的输出作为当前时间步的输入。与此不同,在训练中我们也可以将标签序列(训练集的真实输出序列)在上一个时间步的标签作为解码器在当前时间步的输入。这叫作强制教学(teacher forcing)。

小结

  • 编码器-解码器(seq2seq)可以输入并输出不定长的序列。
  • 编码器—解码器使用了两个循环神经网络。
  • 在编码器—解码器的训练中,可以采用强制教学。

参考文献

[1] Cho, K., Van Merriënboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., & Bengio, Y. (2014). Learning phrase representations using RNN encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078.

[2] Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to sequence learning with neural networks. In Advances in neural information processing systems (pp. 3104-3112).


注:本节与原书基本相同,原书传送门