RNN

RNN 的工作原理如下:首先单词被转换成机器可读的向量,然后 RNN 逐个处理向量序列。在处理时,它把先前的隐藏状态传递给序列的下一步,其中隐藏状态作为神经网络记忆,它包含相关网络已处理数据的信息。
RNN to LSTM and GRU - 图1
△ 逐个处理向量序列
下面来介绍RNN 中每个 cell 单元是如何计算隐藏状态的。首先,将输入和先前隐藏状态组合成一个向量,向量中含有当前输入和先前输入的信息。这个向量再经过激活函数 Tanh 后,输出新的隐藏状态,或网络记忆。
RNN to LSTM and GRU - 图2
△ RNN 单元
RNN cell的代数表达式(St, St-1是当前和前一个状态,Ot当前输出,Xt当前输入)
RNN to LSTM and GRU - 图3

激活函数 Tanh

激活函数Tanh 函数的输出值始终在区间 (-1, 1) 内, 从而调节神经网络输出.
RNN to LSTM and GRU - 图4 RNN to LSTM and GRU - 图5

这就是 RNN,它的内部操作很少,但在适当情况下(如短序列分析)效果很好。RNN 使用的计算资源比它的演化变体 LSTM 和 GRU 少得多。

短期记忆问题

RNN 受限于短期记忆问题。如果一个序列足够长,那它们很难把信息从较早的时间步传输到后面的时间步。因此,如果你尝试处理一段文本来进行预测,RNN 可能在开始时就会遗漏重要信息。
在反向传播过程中,RNN 中存在梯度消失问题。梯度是用于更新神经网络权重的值,梯度消失问题是指随着时间推移,梯度在传播时会下降,如果梯度值变得非常小,则不会继续学习。
image.png
image.png
△ 梯度更新规则

因此,在 RNN 中,梯度小幅更新的网络层会停止学习,这些通常是较早的层。由于这些层不学习,RNN 无法记住它在较长序列中学习到的内容,因此它的记忆是短期的。

解决方案:LSTM 和 GRU

LSTM 和 GRU 是克服短期记忆问题提出的解决方案,它们引入称作“门”的内部机制,可以调节信息流。

image.png

这些门结构可以学习序列中哪些数据是要保留的重要信息,哪些是要删除的。通过这样做,它可以沿着长链序列传递相关信息来执行预测。几乎所有基于 RNN 的先进结果都是通过这两个网络实现的。LSTM 和 GRU 经常用在语音识别、语音合成和文本生成等领域,还可用来为视频生成字幕。

LSTM

LSTM 的控制流程与 RNN 类似,它们都是在前向传播过程中处理传递信息的数据,区别在于 LSTM 单元的结构和运算有所变化。
RNN to LSTM and GRU - 图9
△ LSTM 单元及其运算

这些运算能让 LSTM 具备选择性保留或遗忘某些信息的能力,下面我们将逐步介绍这些看起来有点复杂的运算。

核心概念

LSTM 的核心概念为其单元状态和各种门结构。

单元状态相当于能传输相关信息的通路,让信息在序列链中传递下去,这部分可看作是网络的 “记忆”。理论上,在序列处理过程中,单元状态能一直携带着相关信息。因此,在较早时间步中获得的信息也能传输到较后时间步的单元中,这样能减弱短期记忆的影响。在网络训练过程中,可通过门结构来添加或移除信息,不同神经网络都可通过单元状态上的门结构来决定去记住或遗忘哪些相关信息。

Sigmoid

门结构中包含 Sigmoid 函数,这个激活函数与 Tanh 函数类似。但它的输出区间不是 (-1, 1),而是(0, 1),这有助于更新或忘记数据。通过这样,网络能了解哪些数据不重要需要遗忘,哪些数字很重要需要保留。
RNN to LSTM and GRU - 图10
RNN to LSTM and GRU - 图11
△ Sigmoid 输出区间为 (0, 1)

LSTM 单元中有三种调节信息流的门结构:遗忘门、输入门和输出门。
it=σ(Wist−1+Uixt+bi)
ot=σ(Wost−1+Uoxt+bo)
ft=σ(Wfst−1+Ufxt+bf)

遗忘门

遗忘门能决定应丢弃或保留哪些信息。来自先前隐藏状态的信息和当前输入的信息同时输入到 Sigmoid 函数,输出值处于 0 和 1 之间,越接近 0 意味着越应该忘记,越接近 1 意味着越应该保留。
RNN to LSTM and GRU - 图12

输入门

输入门用来更新单元状态。先将先前隐藏状态的信息和当前输入的信息输入到 Sigmoid 函数,在 0 和 1 之间调整输出值来决定更新哪些信息,0 表示不重要,1 表示重要。你也可将隐藏状态和当前输入传输给 Tanh 函数,并在 - 1 和 1 之间压缩数值以调节网络,然后把 Tanh 输出和 Sigmoid 输出相乘,Sigmoid 输出将决定在 Tanh 输出中哪些信息是重要的且需要进行保留。
RNN to LSTM and GRU - 图13

单元状态

这里已经具备足够信息来计算单元状态。首先把先前的单元状态和遗忘向量逐点相乘,如果它乘以接近 0 的值,则意味在新的单元状态中可能要丢弃这些值;然后把它和输入门的输出值逐点相加,把神经网络发现的新信息更新到单元状态中,这样就得到了新的单元状态。

RNN to LSTM and GRU - 图14

输出门

输出门能决定下个隐藏状态的值,隐藏状态中包含了先前输入的相关信息。当然,隐藏状态也可用于预测。首先把先前的隐藏状态和当前输入传递给 Sigmoid 函数;接着把新得到的单元状态传递给 Tanh 函数;然后把 Tanh 输出和 Sigmoid 输出相乘,以确定隐藏状态应携带的信息;最后把隐藏状态作为当前单元输出,把新的单元状态和新的隐藏状态传输给下个时间步。

RNN to LSTM and GRU - 图15
总结:遗忘门能决定需要保留先前步长中哪些相关信息,输入门决定在当前输入中哪些重要信息需要被添加,输出门决定了下一个隐藏状态。

代码示例

这里还提供了一个用 Python 写的示例代码,来让大家能更好地理解这个结构。

image.png

  1. 首先,我们连接了先前的隐藏状态和当前输入,这里定义为变量 combine;
  2. 把 combine 变量传递到遗忘层中,以删除不相关数据;
  3. 再用 combine 变量创建一个候选层,用来保留可能要添加到单元状态中的值;
  4. 变量 combine 也要传递给输出层,来决定应把候选层中的哪些数据添加到新的单元状态中;
  5. 新的单元状态可根据遗忘层、候选层和输入层和先前的单元状态来计算得到;
  6. 再计算当前单元输出;
  7. 最后把输出和新的单元状态逐点相乘可得到新的隐藏状态。

从上面看出,LSTM 网络的控制流程实际上只是几个张量操作和一个 for 循环。你还可以用隐藏状态进行预测。结合这些机制,LSTM 能在序列处理过程中有选择性地保留或遗忘某些信息。

GRU

GRU 是 RNN 的另一类演化变种,与 LSTM 非常相似。GRU 结构中去除了单元状态,而使用隐藏状态来传输信息。 它只有两个门结构,分别是更新门和重置门。
RNN to LSTM and GRU - 图17
△ GRU 单元结构

更新门

更新门的作用类似于 LSTM 中的遗忘门和输入门,它能决定要丢弃哪些信息和要添加哪些新信息。

重置门

重置门用于决定丢弃先前信息的程度。

这两部分组成了 GRU,它的张量操作较少,因此训练它比 LSTM 更快一点。在选择网络时很难判断哪个更好,研究人员通常会两个都试下,通过性能比较来选出更适合当前任务的结构。

总结

总而言之,RNN 适用于处理序列数据和预测任务,但会受到短期记忆的影响。LSTM 和 GRU 是两种通过引入门结构来减弱短期记忆影响的演化变体,其中门结构可用来调节流经序列链的信息流。目前,LSTM 和 GRU 经常被用于语音识别、语音合成和自然语言理解等多个深度学习应用中。