编码器-解码器架构

:label:sec_encoder-decoder

正如我们在 :numref:sec_machine_translation中所讨论的, 机器翻译是序列转换模型的一个核心问题, 其输入和输出都是长度可变的序列。 为了处理这种类型的输入和输出, 我们可以设计一个包含两个主要组件的架构: 第一个组件是一个编码器(encoder): 它接受一个长度可变的序列作为输入, 并将其转换为具有固定形状的编码状态。 第二个组件是解码器(decoder): 它将固定形状的编码状态映射到长度可变的序列。 这被称为编码器-解码器(encoder-decoder)架构, 如 :numref:fig_encoder_decoder 所示。

编码器-解码器架构 :label:fig_encoder_decoder

我们以英语到法语的机器翻译为例: 给定一个英文的输入序列:“They”、“are”、“watching”、“.”。 首先,这种“编码器-解码器”架构将长度可变的输入序列编码成一个“状态”, 然后对该状态进行解码, 一个词元接着一个词元地生成翻译后的序列作为输出: “Ils”、“regordent”、“.”。 由于“编码器-解码器”架构是形成后续章节中不同序列转换模型的基础, 因此本节将把这个架构转换为接口方便后面的代码实现。

(编码器)

在编码器接口中,我们只指定长度可变的序列作为编码器的输入X。 任何继承这个Encoder 基类的模型将完成代码实现。

```{.python .input} from mxnet.gluon import nn

@save

class Encoder(nn.Block): “””编码器-解码器架构的基本编码器接口””” def init(self, kwargs): super(Encoder, self).init(kwargs)

  1. def forward(self, X, *args):
  2. raise NotImplementedError
  1. ```{.python .input}
  2. #@tab pytorch
  3. from torch import nn
  4. #@save
  5. class Encoder(nn.Module):
  6. """编码器-解码器架构的基本编码器接口"""
  7. def __init__(self, **kwargs):
  8. super(Encoder, self).__init__(**kwargs)
  9. def forward(self, X, *args):
  10. raise NotImplementedError

```{.python .input}

@tab tensorflow

import tensorflow as tf

@save

class Encoder(tf.keras.layers.Layer): “””编码器-解码器架构的基本编码器接口””” def init(self, kwargs): super(Encoder, self).init(kwargs)

  1. def call(self, X, *args, **kwargs):
  2. raise NotImplementedError
  1. ## [**解码器**]
  2. 在下面的解码器接口中,我们新增一个`init_state`函数,
  3. 用于将编码器的输出(`enc_outputs`)转换为编码后的状态。
  4. 注意,此步骤可能需要额外的输入,例如:输入序列的有效长度,
  5. 这在 :numref:`subsec_mt_data_loading` 中进行了解释。
  6. 为了逐个地生成长度可变的词元序列,
  7. 解码器在每个时间步都会将输入
  8. (例如:在前一时间步生成的词元)和编码后的状态
  9. 映射成当前时间步的输出词元。
  10. ```{.python .input}
  11. #@save
  12. class Decoder(nn.Block):
  13. """编码器-解码器架构的基本解码器接口"""
  14. def __init__(self, **kwargs):
  15. super(Decoder, self).__init__(**kwargs)
  16. def init_state(self, enc_outputs, *args):
  17. raise NotImplementedError
  18. def forward(self, X, state):
  19. raise NotImplementedError

```{.python .input}

@tab pytorch

@save

class Decoder(nn.Module): “””编码器-解码器架构的基本解码器接口””” def init(self, kwargs): super(Decoder, self).init(kwargs)

  1. def init_state(self, enc_outputs, *args):
  2. raise NotImplementedError
  3. def forward(self, X, state):
  4. raise NotImplementedError
  1. ```{.python .input}
  2. #@tab tensorflow
  3. #@save
  4. class Decoder(tf.keras.layers.Layer):
  5. """编码器-解码器架构的基本解码器接口"""
  6. def __init__(self, **kwargs):
  7. super(Decoder, self).__init__(**kwargs)
  8. def init_state(self, enc_outputs, *args):
  9. raise NotImplementedError
  10. def call(self, X, state, **kwargs):
  11. raise NotImplementedError

[合并编码器和解码器]

总而言之,“编码器-解码器”架构包含了一个编码器和一个解码器, 并且还拥有可选的额外的参数。 在前向传播中,编码器的输出用于生成编码状态, 这个状态又被解码器作为其输入的一部分。

```{.python .input}

@save

class EncoderDecoder(nn.Block): “””编码器-解码器架构的基类””” def init(self, encoder, decoder, kwargs): super(EncoderDecoder, self).init(kwargs) self.encoder = encoder self.decoder = decoder

  1. def forward(self, enc_X, dec_X, *args):
  2. enc_outputs = self.encoder(enc_X, *args)
  3. dec_state = self.decoder.init_state(enc_outputs, *args)
  4. return self.decoder(dec_X, dec_state)
  1. ```{.python .input}
  2. #@tab pytorch
  3. #@save
  4. class EncoderDecoder(nn.Module):
  5. """编码器-解码器架构的基类"""
  6. def __init__(self, encoder, decoder, **kwargs):
  7. super(EncoderDecoder, self).__init__(**kwargs)
  8. self.encoder = encoder
  9. self.decoder = decoder
  10. def forward(self, enc_X, dec_X, *args):
  11. enc_outputs = self.encoder(enc_X, *args)
  12. dec_state = self.decoder.init_state(enc_outputs, *args)
  13. return self.decoder(dec_X, dec_state)

```{.python .input}

@tab tensorflow

@save

class EncoderDecoder(tf.keras.Model): “””编码器-解码器架构的基类””” def init(self, encoder, decoder, kwargs): super(EncoderDecoder, self).init(kwargs) self.encoder = encoder self.decoder = decoder

  1. def call(self, enc_X, dec_X, *args, **kwargs):
  2. enc_outputs = self.encoder(enc_X, *args, **kwargs)
  3. dec_state = self.decoder.init_state(enc_outputs, *args)
  4. return self.decoder(dec_X, dec_state, **kwargs)

```

“编码器-解码器”体系架构中的术语“状态” 可能会启发你使用具有状态的神经网络来实现该架构。 在下一节中,我们将学习如何应用循环神经网络, 来设计基于“编码器-解码器”架构的序列转换模型。

小结

  • “编码器-解码器”架构可以将长度可变的序列作为输入和输出,因此适用于机器翻译等序列转换问题。
  • 编码器将长度可变的序列作为输入,并将其转换为具有固定形状的编码状态。
  • 解码器将具有固定形状的编码状态映射为长度可变的序列。

练习

  1. 假设我们使用神经网络来实现“编码器-解码器”架构,那么编码器和解码器必须是同一类型的神经网络吗?
  2. 除了机器翻译,你能想到其它可以适用于”编码器-解码器“架构的应用吗?

:begin_tab:mxnet Discussions :end_tab:

:begin_tab:pytorch Discussions :end_tab: