深度学习补充知识

1、KL散度(相对熵):

衡量两个单独的概率分布P(x)和Q(x),利用KL散度来衡量两个分布的差异。

KL是非负的。

KL=0时候当且仅当P和Q在离散型变量的情况下是相同的分布,或者在连续型变量的情况下是“几乎处处”相同。

2、交叉熵(cross-entropy) :

目标值和预测值的误差(类似MSE的指标)

3、Bagging

通过结合几个模型降低泛化误差的技术。

主要想法是训练几个不同模型,然后让所有的模型表决测试样例的输出。这是机器学习中常规策略的一个例子,被称为模型平均。采用这种策略的技术被称为集成方法。

4、Dropout

dropout提供正则化一大类模型的方法,计算方便且功能强大。

dropout可以被认为是集成大量深层神经网络的实用bagging方法。

dropout训练的集成包括所有从基础网络除去非输出单元后形成的子网络。

Dropout训练与Bagging训练不太一样。在Bagging的情况下,所有模型都是独立的在Dropout的情况下,所有模型共享参数,其中每个模型继承父神经网络参数的不同子集。参数共享使得在有限可用的内存下表示指数级数量的模型变得可能。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一 小部分的子网络,参数共享会使得剩余的子网络也能有好的参数设定。这些是仅有的区别。除了这些,Dropout与Bagging算法一样。

5、对抗训练

模型输入x和x’非常相似,人类观察者不贵觉察到对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。

对抗训练有助于体现积极正则化与大型函数族结合的力量。

对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 。

6、提前终止

当训练有足够的表示能力甚至会过拟合的大模型时,我们经常观察到,训练误 差会随着时间的推移逐渐降低但验证集的误差会再次上升。图7.3是这些现象的一个例子,这种现象几乎一定会出现。

这意味着如果我们返回使验证集误差最低的参数设置,就可以获得更好的模型 (因此,有希望获得更好的测试误差)。在每次验证集误差有所改善后,我们存储模型参数的副本。当训练算法终止时,我们返回这些参数而不是最新的参数。当验证集上的误差在事先指定的循环次数内没有进一步改善时,算法就会终止。此过程在算法7.1中有更正式的说明。 这种策略被称为提前终止(early stopping)。这可能是深度学习中最常用的正则化形式。它的流行主要是因为有效性和简单性。

我们可以认为提前终止是非常高效的超参数选择算法。按照这种观点,训练步
数仅是另一个超参数。我们从图7.3可以看到,这个超参数在验证集上具有 U 型性能曲线。很多控制模型容量的超参数在验证集上都是这样的U 型性能曲线,如图7.3。 在提前终止的情况下,我们通过拟合训练集的步数来控制模型的有效容量。大多数 超参数的选择必须使用高代价的猜测和检查过程,我们需要在训练开始时猜测一个超参数,然后运行几个步骤检查它的训练效果。‘‘训练时间’’ 是唯一只要跑一次训练就能尝试很多值的超参数。通过提前终止自动选择超参数的唯一显著的代价是训练 期间要定期评估验证集。在理想情况下,这可以并行在与主训练过程分离的机器上, 或独立的 CPU,或独立的 GPU上完成。如果没有这些额外的资源,可以使用比训练集小的验证集或较不频繁地评估验证集来减小评估代价,较粗略地估算取得最佳的训练时间。

提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、 目标函数或一组允许的参数值。这意味着,无需破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局 部极小点(对应于病态的小权重)。

提前终止可单独使用或与其他的正则化策略结合使用。即使为鼓励更好泛化,使用正则化策略改进目标函数,在训练目标的局部极小点达到最好泛化也是非常罕见 的。

提前终止需要验证集,这意味着某些训练数据不能被馈送到模型。为了更好地 利用这一额外的数据,我们可以在完成提前终止的首次训练之后,进行额外的训练。 在第二轮额外的训练步骤中,所有的训练数据都被包括在内。有两个基本的策略都 可以用于第二轮训练过程。

本节中的推导表明长度为 τ 的轨迹结束于 L2正则化目标的极小点。当然,提前 终止比简单的轨迹长度限制更丰富;相反,提前终止通常涉及监控验证集误差,以便在空间特别好的点处终止轨迹。因此提前终止比权重衰减更具有优势,提前终止能自动确定正则化的正确量,而权重衰减需要多个训练实验测试其超参数的不同值。

7、XOR

异或 与非门/感知机

实际上,与门、或门是单层感知机,而异或门是2层感知机。叠加了多层的感知机也称为多层感知机(multi-layered perceptron)。