作者:mantch 链接:https://zhuanlan.zhihu.com/p/78854514

    训练神经网络,尤其是深度神经所面临的一个问题就是梯度消失或梯度爆炸,也就是你训练神经网络的时候,导数或坡度有时会变得非常大,或者非常小,甚至于以指数方式变小,这加大了训练的难度。

    本质上,梯度消失和爆炸是一种情况。在深层网络中,由于网络过深,如果初始得到的梯度过小,或者传播途中在某一层上过小,则在之后的层上得到的梯度会越来越小,即产生了梯度消失。梯度爆炸也是同样的。一般地,不合理的初始化以及激活函数,如 sigmoid 等,都会导致梯度过大或者过小,从而引起消失 / 爆炸。

    https://zhuanlan.zhihu.com/p/72589432

    • 为什么会产生梯度消失和梯度爆炸?

    目前优化神经网络的方法都是基于 BP,即根据损失函数计算的误差通过梯度反向传播的方式,指导深度网络权值的更新优化。其中将误差从末层往前传递的过程需要链式法则(Chain Rule)的帮助,因此反向传播算法可以说是梯度下降在链式法则中的应用。

    而链式法则是一个连乘的形式,所以当层数越深的时候,梯度将以指数形式传播。梯度消失问题和梯度爆炸问题一般随着网络层数的增加会变得越来越明显。在根据损失函数计算的误差通过梯度反向传播的方式对深度网络权值进行更新时,得到的梯度值接近 0 特别大,也就是梯度消失爆炸。梯度消失或梯度爆炸在本质原理上其实是一样的。

    • 分析产生梯度消失和梯度爆炸的原因


    【梯度消失】经常出现,产生的原因有:一是在深层网络中,二是采用了不合适的损失函数**,比如 sigmoid。当梯度消失发生时,接近于输出层的隐藏层由于其梯度相对正常,所以权值更新时也就相对正常,但是当越靠近输入层时,由于梯度消失现象,会导致靠近输入层的隐藏层权值更新缓慢或者更新停滞。这就导致在训练时,只等价于后面几层的浅层网络的学习。

    【梯度爆炸】一般出现在深层网络权值初始化值太大的情况下。在深层神经网络或循环神经网络中,误差的梯度可在更新中累积相乘。如果网络层之间的梯度值大于 1.0,那么重复相乘会导致梯度呈指数级增长,梯度变的非常大,然后导致网络权重的大幅更新,并因此使网络变得不稳定。
    梯度爆炸会伴随一些细微的信号,如:①模型不稳定,导致更新过程中的损失出现显著变化;②训练过程中,在极端情况下,权重的值变得非常大,以至于溢出,导致模型损失变成 NaN 等等。

    • 解决方法

    **

    1. pre-training+fine-tunning
    2. 梯度剪切:对梯度设定阈值
    3. 权重正则化
    4. 选择 relu 等梯度大部分落在常数上的激活函数
    5. batch normalization
    6. 残差网络的捷径(shortcut)
    7. LSTM 的 “门(gate)” 结构