第一章 线性回归 - 图1

算法简介

  • 线性回归是一种监督学习算法,即给定一个训练集,去学习一个假设函数,用来尽量精确地预测每个样本对应的输出


ddd

  • 线性回归属于回归算法,其输出变量连续

  • 另一类监督学习算法是分类算法,其输出变量离散

  • 线性回归的假设函数为:

第一章 线性回归 - 图2

  • 线性回归的代价函数为:

第一章 线性回归 - 图3

  • 线性回归的目的:通过训练集找出使代价函数最小的一组参数 第一章 线性回归 - 图4 (又称最小二乘法)

求解方法

  • 对于线性回归代价函数的求解,有两种可选方法:梯度下降标准方程

梯度下降

  • 梯度下降是一种求解最优化问题的迭代方法,具体步骤为:

    1. 随机选取初始的 第一章 线性回归 - 图5

    2. 不断地以梯度的方向修正 第一章 线性回归 - 图6

    3. 最终使 第一章 线性回归 - 图7 收敛至局部最优(在最小二乘法中,局部最优即全局最优)

第一章 线性回归 - 图8

  • 公式中 第一章 线性回归 - 图9 称为学习速率,太小会导致收敛缓慢,太大会导致错过最优点,需要谨慎选择

  • 对公式进行进一步推导,得到:

第一章 线性回归 - 图10

  • 将上述结果代入 (1) 式得到:

第一章 线性回归 - 图11

  • 上述的结果通过数学变换将减号变成了加号,方便之后与逻辑回归的结果作比较

分类

  • 梯度下降主要可以分为两类:批量梯度下降随机梯度下降

  • 批量梯度下降:每次计算梯度都需要遍历所有的样本点,当样本量很大时,计算速度会十分缓慢

  • 随机梯度下降:每次只考虑一个样本点,而不是所有样本点,计算速度会提高,但是收敛过程会比较曲折,可能无法精确收敛至最优值

    • 随机梯度下降的优化:小批量梯度下降,利用矩阵并行运算,一次处理小批量的样本点,有时可以比随机梯度下降速度更快

梯度方向的选择

  • 选择梯度方向的原因是它是使代价函数减小(下降)最大的方向

    • 我们可以利用柯西不等式对这一结论进行证明
  • 第一章 线性回归 - 图12 改变一个很小的量时,利用泰勒公式,忽略一阶导数之后的项,得:

第一章 线性回归 - 图13

  • 定义如下变量:

第一章 线性回归 - 图14

  • 将其代回 (3) 式,得:

第一章 线性回归 - 图15

  • 根据柯西不等式,有(等号当且仅当 第一章 线性回归 - 图16第一章 线性回归 - 图17 线性相关时成立):

第一章 线性回归 - 图18

  • 因此,要使 第一章 线性回归 - 图19 最小,即 第一章 线性回归 - 图20 最大且 第一章 线性回归 - 图21 ,而当且仅当 第一章 线性回归 - 图22 时满足条件,即沿着梯度方向调整

正规方程

  • 我们可以通过正规方程注解求出 第一章 线性回归 - 图23 的解析解,推导过程如下:

矩阵导数

  • 对一个 将 第一章 线性回归 - 图24 的矩阵映射至实数的函数,定义其导数为:

第一章 线性回归 - 图25

  • 对一 第一章 线性回归 - 图26 方阵,将它的迹定义为对角线元素之和:

第一章 线性回归 - 图27

  • 易证明迹操作具有如下性质(各矩阵为方阵):

第一章 线性回归 - 图28

  • 同样易证明如下性质(a为实数):

第一章 线性回归 - 图29

  • 基于以上定义,可以证明一些关于矩阵导数的性质(公式 (7) 只针对非奇异矩阵):

第一章 线性回归 - 图30

最小二乘重现

  • 对于训练集,可以写成如下的形式:

第一章 线性回归 - 图31

  • 因为 第一章 线性回归 - 图32 ,我们可以得出:

第一章 线性回归 - 图33

  • 此外,对于一个向量 z ,我们有 第一章 线性回归 - 图34 ,因此综上可以得出:

第一章 线性回归 - 图35

  • 所以为了使 第一章 线性回归 - 图36 最小,即只需找出其导数为0时 第一章 线性回归 - 图37 的值。下面给出详细的求解过程:

  • 首先,将 (5) 式与 (6) 式结合,得:

第一章 线性回归 - 图38

  • 其中最后两步的推导基于矩阵转置的下列性质:

第一章 线性回归 - 图39

  • 基于以上所述,有:

第一章 线性回归 - 图40

  • 第一章 线性回归 - 图41 最小时,其导数一定为0,即可以推出正规方程(不可逆问题可以通过伪逆计算或正则化处理解决):

第一章 线性回归 - 图42

概率解释

  • 在线性回归中,为什么要选择最小二乘函数作为代价函数?我们可以用概率模型来对其进行解释

概率模型

  • 假设真实值与输入之间满足如下等式:

第一章 线性回归 - 图43

  • 其中 第一章 线性回归 - 图44 是误差项,表示没有被建模的因素或是随机噪声
  • 进一步假设误差项是独立同分布的,那么根据中心极限定理,大量相互独立的随机变量之和符合正态分布(可以理解为大量独立随机变量的大部分误差会相互抵消),即 第一章 线性回归 - 图45 ,那么有:

第一章 线性回归 - 图46

  • 因为误差的概率和预测出真实值的概率是一样的,因此:

第一章 线性回归 - 图47

  • 注意,这里 第一章 线性回归 - 图48 不同于 第一章 线性回归 - 图49 ,这里指给定 第一章 线性回归 - 图50 ,以 第一章 线性回归 - 图51 为参数的 第一章 线性回归 - 图52 的分布,因为对于训练集,第一章 线性回归 - 图53 是客观存在的,只是当前还不确定(这是一种频率学派的观点,之后会细说)
  • 因此,我们得出真实值是以预测值为中心的一个正态分布:

第一章 线性回归 - 图54

似然函数

  • 给定训练集 第一章 线性回归 - 图55 和参数 第一章 线性回归 - 图56 ,预测结果等于真实结果的概率,将其看作 第一章 线性回归 - 图57 的函数,可以理解为 第一章 线性回归 - 图58 为真实 第一章 线性回归 - 图59 的可能性(似然性),即:

第一章 线性回归 - 图60

  • 因为每个样本是独立同分布的,所以有:

第一章 线性回归 - 图61

  • 现在,我们可以通过最大似然法,即找出使 第一章 线性回归 - 图62 最大的那个 第一章 线性回归 - 图63,作为对参数 第一章 线性回归 - 图64 的最佳取值

  • 实际应用中,为了简化计算,通常不直接求似然函数的最大值,而是采用对数似然函数:

第一章 线性回归 - 图65

  • 因此,最大化 第一章 线性回归 - 图66 就是最小化:
    第一章 线性回归 - 图67

    • 这正是我们之前提出的最小二乘代价函数

    • 可以看出 第一章 线性回归 - 图68 的选择并不依赖于第一章 线性回归 - 图69

  • 注意:概率解释只是对最小二乘法的一种合理解释,其实还有其他的解释方法

局部加权线性回归

  • 本节将介绍一种特殊的线性回归算法

欠拟合与过拟合

  • 对于传统的线性回归,特征的选择极为重要,对于下面三幅图,我们称第一幅图的模型是欠拟合,第三幅图的模型则是过拟合(之后会详细介绍)

第一章 线性回归 - 图70

  • 可以看出,找到一个全局的线性模型去拟合整个训练集,并不是一件简单的事情,往往会引起欠拟合或是过拟合的发生

  • 对于这种情况之后会给出解决方案,而这里我们提出了另外一种思路,即局部线性加权回归,这种方案可以使特征的选择的重要性降低

算法思路

  • 局部线性加权回归的思路是并不去拟合整个训练集来产生全局的模型,而是在每次预测时,只去拟合给定输入x附近的一小段训练集,无论全局训练集是怎样的一条分布曲线,在局部小段数据上,都可以用线性去逼近。具体步骤如下:

    1. 拟合 第一章 线性回归 - 图71 来最小化 第一章 线性回归 - 图72

    2. 输出 第一章 线性回归 - 图73

  • 这里 第一章 线性回归 - 图74非负权重,一般取值如下(当x为向量时表达式有所不同):

第一章 线性回归 - 图75

  • 可以看出,离给定输入越近的样本点权重越大,拟合程度越高

  • 注意:第一章 线性回归 - 图76 的定义与高斯分布类似,但并没有关系,分布曲线同为钟型

    • 第一章 线性回归 - 图77 称为带宽参数,用来控制钟型曲线的顶峰下降速度,即权重变化的快慢,需要根据具体情况作出调整

参数学习与非参数学习

  • 局部加权线性回归本质上是一种非参数学习算法,而传统的线性回归是一种参数学习算法

  • 两者的区别在于:

    • 参数学习算法有一组有限的、固定的参数,一旦完成拟合,只需要保存下参数值做预测,而不需要保存完整的训练集

    • 非参数学习算法由于参数不固定,所以需要保存完整的训练集来进行预测,而不仅仅是保存参数

  • 非参数学习导致的结果:为了表达假设h而保存的数据将随着训练集的大小而线性增长