1. 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。统计学习包括监督学习、非监督学习、半监督学习和强化学习。


  1. 统计学习方法三要素——模型、策略、算法,对理解统计学习方法起到提纲挈领的作用。


  1. 本书主要讨论监督学习,监督学习可以概括如下:从给定有限的训练数据出发, 假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。


  1. 统计学习中,进行模型选择或者说提高学习的泛化能力是一个重要问题。如果只考虑减少训练误差,就可能产生过拟合现象。模型选择的方法有正则化与交叉验证。学习方法泛化能力的分析是统计学习理论研究的重要课题。

  2. 分类问题、标注问题和回归问题都是监督学习的重要问题。本书中介绍的统计学习方法包括感知机、统计学习方法概论 - 图1近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、EM算法、隐马尔可夫模型和条件随机场。这些方法是主要的分类、标注以及回归方法。它们又可以归类为生成方法与判别方法。


使用最小二乘法拟和曲线

高斯于1823年在误差统计学习方法概论 - 图2独立同分布的假定下,证明了最小二乘方法的一个最优性质: 在所有无偏的线性估计类中,最小二乘方法是其中方差最小的! 对于数据统计学习方法概论 - 图3
拟合出函数统计学习方法概论 - 图4
有误差,即残差:统计学习方法概论 - 图5
此时统计学习方法概论 - 图6范数(残差平方和)最小时,统计学习方法概论 - 图7统计学习方法概论 - 图8 相似度最高,更拟合
一般的统计学习方法概论 - 图9统计学习方法概论 - 图10次的多项式,统计学习方法概论 - 图11
统计学习方法概论 - 图12为参数
最小二乘法就是要找到一组 统计学习方法概论 - 图13 ,使得统计学习方法概论 - 图14 (残差平方和) 最小
即,求 统计学习方法概论 - 图15


举例:我们用目标函数统计学习方法概论 - 图16, 加上一个正态分布的噪音干扰,用多项式去拟合【例1.1 11页】

  1. import numpy as np
  2. import scipy as sp
  3. from scipy.optimize import leastsq
  4. import matplotlib.pyplot as plt
  5. %matplotlib inline
  • ps: numpy.poly1d([1,2,3]) 生成 统计学习方法概论 - 图17* ```python

    目标函数

    def real_func(x): return np.sin(2np.pix)

多项式

def fit_func(p, x): f = np.poly1d(p) return f(x)

残差

def residuals_func(p, x, y): ret = fit_func(p, x) - y return ret

十个点

x = np.linspace(0, 1, 10) x_points = np.linspace(0, 1, 1000)

加上正态分布噪音的目标函数的值

y = real_func(x) y = [np.random.normal(0, 0.1) + y1 for y1 in y]

def fitting(M=0): “”” M 为 多项式的次数 “””

  1. # 随机初始化多项式参数
  2. p_init = np.random.rand(M + 1)
  3. # 最小二乘法
  4. p_lsq = leastsq(residuals_func, p_init, args=(x, y))
  5. print('Fitting Parameters:', p_lsq[0])
  6. # 可视化
  7. plt.plot(x_points, real_func(x_points), label='real')
  8. plt.plot(x_points, fit_func(p_lsq[0], x_points), label='fitted curve')
  9. plt.plot(x, y, 'bo', label='noise')
  10. plt.legend()
  11. return p_lsq
_
<a name="VwGxS"></a>
### M=0
```python
# M=0
p_lsq_0 = fitting(M=0)

Fitting Parameters: [0.02515259]

image.png

M=1

# M=1
p_lsq_1 = fitting(M=1)

Fitting Parameters: [-1.50626624  0.77828571]

image.png

M=3

# M=3
p_lsq_3 = fitting(M=3)

Fitting Parameters: [ 2.21147559e+01 -3.34560175e+01  1.13639167e+01 -2.82318048e-02]

image.png

M=9

# M=9
p_lsq_9 = fitting(M=9)

Fitting Parameters: [-1.70872086e+04  7.01364939e+04 -1.18382087e+05  1.06032494e+05
 -5.43222991e+04  1.60701108e+04 -2.65984526e+03  2.12318870e+02
 -7.15931412e-02  3.53804263e-02]

image.png
当M=9时,多项式曲线通过了每个数据点,但是造成了过拟合

正则化

结果显示过拟合, 引入正则化项(regularizer),降低过拟合
统计学习方法概论 - 图22
回归问题中,损失函数是平方损失,正则化可以是参数向量的L2范数,也可以是L1范数。

  • L1: regularization*abs(p)
  • L2: 0.5 regularization np.square(p)
    ```python regularization = 0.0001

def residuals_func_regularization(p, x, y): ret = fit_func(p, x) - y ret = np.append(ret, np.sqrt(0.5 regularization np.square(p))) # L2范数作为正则化项 return ret

最小二乘法,加正则化项

p_init = np.random.rand(9 + 1) p_lsq_regularization = leastsq(residuals_func_regularization, p_init, args=(x, y))

plt.plot(x_points, real_func(x_points), label=’real’) plt.plot(x_points, fit_func(p_lsq_9[0], x_points), label=’fitted curve’) plt.plot( x_points, fit_func(p_lsq_regularization[0], x_points), label=’regularization’) plt.plot(x, y, ‘bo’, label=’noise’) plt.legend() ``` image.png