第六章 学习理论 - 图1

方差与偏差的权衡

  • 在讨论线性回归的时候,我们尝试用各种不同的模型来拟合训练集,如下图所示:

    • 模型可以理解为假设(hypothesis)的集合

第六章 学习理论 - 图2

  • 可以看到,过于简单或复杂的模型都不能对训练集之外的数据给出合理的预测

    • 这表示训练集学习得到的东西并不能被很好地推广到其他数据上
  • 我们用泛化误差(generalization error)来量化这种差异

    • 一个假设的泛化误差指不属于训练集的样本的预期误差
  • 上图左边的线性拟合与右边的高次多项式拟合都有非常大的泛化误差,但其反映的问题大不相同

    • 左边的模型得到的假设具有非常大的偏差(bias)

      • 偏差较大指的是模型没有捕捉到训练数据的结构特征,即对训练数据欠拟合
    • 右边的模型得到的假设具有非常大的方差(variance)

      • 方差较大是指拟合出的模型可能只适合眼下这个小规模的有限训练集,即对训练数据过拟合
  • 我们需要在偏差与方差之间进行权衡:

    • 如果模型过于“简单”,参数非常少,那么可能会有很大的偏差,而方差则很小

    • 如果模型过于“复杂”,有非常多的参数,那么可能会有很大的方差,而偏差则较小

    • 在上图的例子中,用二次函数模型进行拟合得到的效果,要好于其他两种模型

预先准备

  • 先给出两个简单但是有用的引理:

    1. 联合约束(The union bound)设 第六章 学习理论 - 图3 是 K 个不同事件(但不一定互相独立),则有:

第六章 学习理论 - 图4

  1. Hoeffding 不等式(Hoeffding inequality) 设 第六章 学习理论 - 图5第六章 学习理论 - 图6 个独立同分布(iid)的随机变量,且其遵循伯努利分布:第六章 学习理论 - 图7,设 第六章 学习理论 - 图8 为这些随机变量的均值,现在设任意的 第六章 学习理论 - 图9 为某一固定值,则有:

第六章 学习理论 - 图10

  1. - 该引理在学习理论中也称为**切尔诺夫约束**(Chernoff bound
  2. - 其表明:如果我们从一个伯努利分布的随机变量中选取平均值 ![](https://cdn.nlark.com/__latex/9fa81813595f2942a845f375d5c8e3a8.svg#align=left&card=math&code=%5Chat%5Cphi&height=24&width=11) 来作为对 ![](https://cdn.nlark.com/__latex/1ed346930917426bc46d41e22cc525ec.svg#align=left&card=math&code=%5Cphi&height=24&width=10) 的估计值,那么只要 ![](https://cdn.nlark.com/__latex/6f8f57715090da2632453988d9a1501b.svg#align=left&card=math&code=m&height=24&width=15) 足够大,我们偏移真实值很远的概率就会比较小
  • 基于上述引理,我们就可以证明在学习理论中一些深刻且重要的理论了

    • 为了简化表述,这里以二元分类为例,其中的分类标签为 第六章 学习理论 - 图11

    • 这里得出的所有结论均可推广至其他问题,包括回归、多元分类等

  • 假设我们有一个给定的训练集 第六章 学习理论 - 图12,其样本规模为 第六章 学习理论 - 图13,集合中的训练样本 第六章 学习理论 - 图14 是遵循某概率分布 第六章 学习理论 - 图15 的独立同分布随机变量

    • 对于一个假设 第六章 学习理论 - 图16,我们用如下的方法定义训练误差(在学习理论中也称为经验风险或者经验误差):

第六章 学习理论 - 图17

  - 对于某个特定训练样本集合 ![](https://cdn.nlark.com/__latex/5dbc98dcc983a70728bd082d1a47546e.svg#align=left&card=math&code=S&height=24&width=11),其训练误差记为 ![](https://cdn.nlark.com/__latex/b7cf71917801aa1b46accd4e2ff82d13.svg#align=left&card=math&code=%5Chat%5Cepsilon_S%28h%29&height=24&width=40)
  • 我们定义泛化误差为:

第六章 学习理论 - 图18

  - 其相当于:对于基于分布 ![](https://cdn.nlark.com/__latex/eefecd9cb0345697ddaac0281588a08d.svg#align=left&card=math&code=%5Cmathcal%7BD%7D&height=24&width=13) 给出的一个新样本 ![](https://cdn.nlark.com/__latex/90cbc22edf225adf8a68974f51227f05.svg#align=left&card=math&code=%28x%2Cy%29&height=24&width=38) ,假设 ![](https://cdn.nlark.com/__latex/2510c39011c5be704182423e3a695e91.svg#align=left&card=math&code=h&height=24&width=10) 对该样本分类错误的概率

  - 注意这里假设训练集与检验假设用的数据集服从同一个分布 ![](https://cdn.nlark.com/__latex/eefecd9cb0345697ddaac0281588a08d.svg#align=left&card=math&code=%5Cmathcal%7BD%7D&height=24&width=13)(这通常被认为是 **PAC** 假设之一)
  • 对于线性分类,令 第六章 学习理论 - 图19,那么一种合理的拟合参数 第六章 学习理论 - 图20 的方法是使训练误差最小化:

第六章 学习理论 - 图21

  • 我们将这个过程称为经验风险最小化(empirical risk minimization)

  • 通过这种方法得到的假设结果就是 第六章 学习理论 - 图22

  • ERM 算法是最基础的学习算法,这一节我们主要关注的就是这种算法

    • 之前所说的算法如逻辑回归可以看做是对该算法的某种近似
  • 为了更好地研究学习理论,我们可以对上面的问题进行以下抽象:

    • 我们将学习算法所使用的所有假设的集合定义为 第六章 学习理论 - 图23(hypothesis class)

      • 对于线性分类问题来说:第六章 学习理论 - 图24
    • 现在可以将 ERM 看作是对函数集合 第六章 学习理论 - 图25 的最小化,即:

第六章 学习理论 - 图26

有限个假设的情况

  • 我们先考虑假设集 第六章 学习理论 - 图27 中的假设个数有限(假定个数为 第六章 学习理论 - 图28 )的情况

  • 我们会证明下面两个结论:

    1. 对于任意的 第六章 学习理论 - 图29第六章 学习理论 - 图30 都是对 第六章 学习理论 - 图31 的可靠估计

    2. 第六章 学习理论 - 图32 的泛化误差 第六章 学习理论 - 图33 存在上界

  • 对于某个特定的假设 第六章 学习理论 - 图34,考虑以下的伯努利随机变量 第六章 学习理论 - 图35

第六章 学习理论 - 图36

  • 该变量表示 第六章 学习理论 - 图37 是否进行了错误的分类

  • 对于特定的变量 第六章 学习理论 - 图38第六章 学习理论 - 图39

  • 我们可以看出,泛化误差 第六章 学习理论 - 图40第六章 学习理论 - 图41 的期望值,同时训练误差可以表示为 第六章 学习理论 - 图42 的均值:

第六章 学习理论 - 图43

  • 根据 Hoeffding 不等式,我们有:

第六章 学习理论 - 图44

  • 这表明,对于特定的假设 第六章 学习理论 - 图45,如果 第六章 学习理论 - 图46 很大,那么训练误差与泛化误差接近的概率将会非常大
  • 但是我们希望证明这一结论对于假设集中所有的假设均成立

    • 为此我们需要定义 第六章 学习理论 - 图47 为事件 第六章 学习理论 - 图48

    • 我们已经证明了,对于任意特定的 第六章 学习理论 - 图49第六章 学习理论 - 图50 成立

  • 根据联合约束,我们有:

第六章 学习理论 - 图51

  • 等式两边同时用 1 去减,可以得到:

第六章 学习理论 - 图52

  - 因此对于任意的 ![](https://cdn.nlark.com/__latex/3cf146ce30a65224ccd2ff9332724a45.svg#align=left&card=math&code=h%5Cin%5Cmathcal%7BH%7D&height=24&width=45),![](https://cdn.nlark.com/__latex/aa613aa318ecfb74f73aad00de24181c.svg#align=left&card=math&code=%5Cepsilon%28h%29&height=24&width=30) 和 ![](https://cdn.nlark.com/__latex/d6bbbd7abf6f19e00913f1cf8478c9d8.svg#align=left&card=math&code=%5Chat%5Cepsilon%28h%29&height=24&width=33) 相差在 ![](https://cdn.nlark.com/__latex/ae539dfcc999c28e25a0f3ae65c1de79.svg#align=left&card=math&code=%5Cgamma&height=24&width=9) 之内的概率至少为 ![](https://cdn.nlark.com/__latex/34b64db013b8da84f65cdbe01ed7da45.svg#align=left&card=math&code=1-2k%5Cexp%28-2%5Cgamma%5E2m%29&height=24&width=143)

  - 该结论被称为**一致收敛**(uniform convergence)
  • 在上述证明中,我们感兴趣的变量有三个:第六章 学习理论 - 图53第六章 学习理论 - 图54,以及训练误差与泛化误差相差大于 第六章 学习理论 - 图55 的概率 第六章 学习理论 - 图56

    • 我们可以将其中的任意一个变量用其他两个变量来约束
  • 例如,给定 第六章 学习理论 - 图57 和某个 第六章 学习理论 - 图58第六章 学习理论 - 图59 至少应该取多少,才能保证训练误差与泛化误差相差在 第六章 学习理论 - 图60 之内的概率至少为 第六章 学习理论 - 图61

    • 根据一致收敛的结论,我们有 ,从而得到:

第六章 学习理论 - 图62

  - 这个约束告诉我们为了对结果有所保证我们需要有多大的训练样本量

  - 某个算法为了实现一定程度的性能所需要的训练集规模 ![](https://cdn.nlark.com/__latex/6f8f57715090da2632453988d9a1501b.svg#align=left&card=math&code=m&height=24&width=15) 也被称为该算法的**样本复杂度**(sample complexity)

  - 上面的约束还表明为了保证结果,所需的训练集规模只是假设个数 ![](https://cdn.nlark.com/__latex/8ce4b16b22b58894aa86c421e8759df3.svg#align=left&card=math&code=k&height=24&width=9) 的_对数_
  • 类似地,我们可以固定 第六章 学习理论 - 图63第六章 学习理论 - 图64 的值,求解 第六章 学习理论 - 图65,得到

第六章 学习理论 - 图66

  • 从而对所有的 第六章 学习理论 - 图67,有:

第六章 学习理论 - 图68

  • 利用一致收敛的结果,我们可以证明 第六章 学习理论 - 图69 的泛化误差 第六章 学习理论 - 图70 存在上界

    • 定义 第六章 学习理论 - 图71 为假设集 第六章 学习理论 - 图72 中的最佳假设(使泛化误差最小),则有:

第六章 学习理论 - 图73

  - 第一行不等式使用了一致收敛的结论

  - 第二行不等式使用了 ![](https://cdn.nlark.com/__latex/e41493956bf4bf300a068592e17ac9fd.svg#align=left&card=math&code=%5Chat%20h&height=25&width=10) 的定义,即对于所有的 ![](https://cdn.nlark.com/__latex/2510c39011c5be704182423e3a695e91.svg#align=left&card=math&code=h&height=24&width=10),都有 ![](https://cdn.nlark.com/__latex/f0f04daabf130a4965b36024c77e71e7.svg#align=left&card=math&code=%5Chat%5Cepsilon%28%5Chat%20h%29%20%5Cleq%20%5Chat%5Cepsilon%28h%29&height=25&width=88)

  - 第三行不等式同样使用了一致收敛的结论

  - 我们得到:如果一致收敛发生,那么 ![](https://cdn.nlark.com/__latex/e41493956bf4bf300a068592e17ac9fd.svg#align=left&card=math&code=%5Chat%20h&height=25&width=10) 的泛化误差最多比假设集 ![](https://cdn.nlark.com/__latex/6799f18bc6e3025d6c3434cd6936735d.svg#align=left&card=math&code=%5Cmathcal%7BH%7D&height=24&width=14) 中的最佳假设大 ![](https://cdn.nlark.com/__latex/5e3e0241740247c187eb324ecd4a12c1.svg#align=left&card=math&code=2%5Cgamma&height=24&width=18)
  • 进一步地,将上述结论整合在一起,可以得到如下定理:

    • 定理:令 第六章 学习理论 - 图74,保持 第六章 学习理论 - 图75第六章 学习理论 - 图76 不变,则在至少 第六章 学习理论 - 图77 的概率下 ,我们有:

第六章 学习理论 - 图78

  • 上述定理为我们量化了模型选择中方差与偏差的权衡问题

    • 假设我们有一个假设集 第六章 学习理论 - 图79,考虑将它更换为某个更大的假设集 第六章 学习理论 - 图80(可以理解为从简单的模型换成复杂的模型)

    • 那么对于上面的定理,第一项 第六章 学习理论 - 图81 只会减少(因为可选择的假设更多了)

      • 这可以理解为通过使用一个更大的假设集,偏差减少了
    • 但是,如果 第六章 学习理论 - 图82 变大,那么第二项会增加

      • 这对应为方差的增加
  • 与之前类似,我们可以得到下述关于样本复杂度的推论:

    • 推论:令 第六章 学习理论 - 图83,保持 第六章 学习理论 - 图84第六章 学习理论 - 图85 不变,那么为了满足 第六章 学习理论 - 图86 成立的概率至少为 第六章 学习理论 - 图87,则有:

第六章 学习理论 - 图88

无限个假设的情况

  • 下面考虑假设集中假设个数无限的情况

  • 让我们先通过一个不太精确的论证来获得对于无限假设集的直观印象

    • 假设假设集 第六章 学习理论 - 图89 中的每一个假设有 第六章 学习理论 - 图90 个实数参数

    • 由于我们使用计算机来表示实数,而 IEEE 双精度浮点数为 64 个比特位,所以假设集中的每一个假设的参数总共包含 第六章 学习理论 - 图91 个比特位

      • 因此,我们的假设集中最多包含 第六章 学习理论 - 图92 种不同的假设
    • 根据上一节最后的推论,为了满足 第六章 学习理论 - 图93 成立的概率至少为 第六章 学习理论 - 图94,则有:

第六章 学习理论 - 图95

  - 这表明需要的训练集样本的数量最多与模型的参数呈**线性**关系
  • 虽然上述推论不够严谨(建立在对参数计算机化表达的基础之上),但是其结论是基本正确的:如果我们尝试去最小化训练误差,并使得其能够学习到一个较好(泛化误差小)的假设(含有 第六章 学习理论 - 图96 个参数),那么我们需要 第六章 学习理论 - 图97 的线性数量级的训练样本数量

  • 上述结论适用于大部分使用 ERM 或其近似的判别学习算法,对于非 ERM 学习算法的理论证明还在研究中

  • 上述论证的另一个不严谨之处在于其依赖于假设集 第六章 学习理论 - 图98 的参数化

    • 直观来看,这并没有什么影响

    • 对于一个线性分类器,如果将它写作 第六章 学习理论 - 图99,那么其参数共有 第六章 学习理论 - 图100

      • 如果将它写作 第六章 学习理论 - 图101,那么其参数共有 第六章 学习理论 - 图102

      • 两种情况都可以看做相同的假设集 第六章 学习理论 - 图103:一个 第六章 学习理论 - 图104 维空间的线性分类器集合

  • 为了进行更严谨的论证,给出如下定义:

    • 给定一个点的集合 第六章 学习理论 - 图105(与训练集无关),其中 第六章 学习理论 - 图106(即每个点维数相同)

    • 对于一个假设集 第六章 学习理论 - 图107,我们认为 第六章 学习理论 - 图108 打散(shatter)了 第六章 学习理论 - 图109 如果 第六章 学习理论 - 图110 可以实现 第六章 学习理论 - 图111 的任意标签化

      • 即对于任意的标签集合 第六章 学习理论 - 图112,都存在某个 第六章 学习理论 - 图113 使得 第六章 学习理论 - 图114 对于所有的 第六章 学习理论 - 图115 均成立
    • 我们定义一个假设集 第六章 学习理论 - 图116VC 维(Vapnik-Chervonenkis dimension)为该假设集能够打散的最大集合规模

      • 如果 第六章 学习理论 - 图117 可以打散任意大的集合,那么 第六章 学习理论 - 图118

      • 例如,对于下图所示的三个点的集合:

第六章 学习理论 - 图119

  - 可以发现,对于一个二维线性分类器集合 ![](https://cdn.nlark.com/__latex/8875912b2219b7f19a52d777b347cfad.svg#align=left&card=math&code=h%28x%29%20%3D%201%5C%7B%5Ctheta_0%20%2B%20%5Ctheta_1x_1%20%2B%20%5Ctheta_2x_2%20%5Cge%200%5C%7D&height=24&width=237),它能够打散上面的点集,具体如下图所示:

第六章 学习理论 - 图120

  - 此外,还可以证明该假设集并不能打散任何一个 4 个点的集合,因此其 VC 维为3

  - 注意:即便上述假设集的 VC 维的为 3 ,还是可能存在不能被该假设集打散的三点集合。例如下图所示的三点集合,上述线性假设集并不能打散该点集

第六章 学习理论 - 图121

  - 换句话说,在 VC 维的定义下,要保证 ![](https://cdn.nlark.com/__latex/dadbdab3648acdb817d99081dc8fd55b.svg#align=left&card=math&code=VC%28%5Cmathcal%7BH%7D%29&height=24&width=54) 至少为 ![](https://cdn.nlark.com/__latex/8277e0910d750195b448797616e091ad.svg#align=left&card=math&code=d&height=24&width=9),只需要证明至少有一个规模为 ![](https://cdn.nlark.com/__latex/8277e0910d750195b448797616e091ad.svg#align=left&card=math&code=d&height=24&width=9) 的点集能够被 ![](https://cdn.nlark.com/__latex/6799f18bc6e3025d6c3434cd6936735d.svg#align=left&card=math&code=%5Cmathcal%7BH%7D&height=24&width=14) 打散即可
  • 基于 VC 维,我们可以给出如下定理(学习理论中最重要的定理之一):

    • 定理:给定 第六章 学习理论 - 图122,设 第六章 学习理论 - 图123,那么对于所有的 第六章 学习理论 - 图124,都有至少 第六章 学习理论 - 图125 的概率使得:

第六章 学习理论 - 图126

  - 因此,在至少 ![](https://cdn.nlark.com/__latex/d25b952b777249aabed0b339dd63479b.svg#align=left&card=math&code=1-%5Cdelta&height=24&width=37) 的概率下,我们还有:

第六章 学习理论 - 图127

  • 上述定理表明,如果一个假设集的 VC 维有限,那么只要 第六章 学习理论 - 图128 足够大,就可以保证一致收敛成立,同时可以得到 第六章 学习理论 - 图129 关于 第六章 学习理论 - 图130 的上界。与之前类似,我们还可以给出如下推论:

  • 推论:为了满足 第六章 学习理论 - 图131 对所有 第六章 学习理论 - 图132 成立的概率至少为 第六章 学习理论 - 图133,可以证明 第六章 学习理论 - 图134

    • 该推论表明,为了使学习效果较好,所需的训练集样本数量与假设集的 VC 维线性相关

    • 而对于大部分的假设集,其 VC 维和参数数量(假定可以合理的参数化)近似线性相关

    • 将上述结论综合起来,我们可以得出:对于一个 ERM 学习算法,其所需的训练样本数量近似与假设集的参数个数线性相关