核心思想:错误驱动

感知机 - 图1
有一些数据感知机 - 图2,这些数据样本分别属于两个不同的类别。现在用一个超平面将两类样本分开,位于超平面上方的样本打上标签+1(图中绿色的点),下方的打上标签-1(图中红色的点)。那么每个数据样本感知机 - 图3都有一个标签感知机 - 图4,表明其所属的类别。
记该超平面方程为感知机 - 图5(在每个数据样本开头添一位数据1,这样超平面方程仍然是感知机 - 图6的形式,事实上上一节逻辑回归的超平面方程也可以这么写),那么被分类正确的点有感知机 - 图7,被分类错误的点有感知机 - 图8
现在定义数据集的一个子集:
感知机 - 图9
代表被错误分类的数据样本集合。
定义函数:
感知机 - 图10
代表整个数据集被错误分类的“程度”。
由于对每个错误分类的数据样本感知机 - 图11感知机 - 图12,所以我们的目标是要找到感知机 - 图13使得感知机 - 图14最大,即使得感知机 - 图15最小,即找到:
感知机 - 图16

梯度下降求目标参数

感知机 - 图17分别求偏导,有:
感知机 - 图18
梯度下降法多次迭代即可求得目标参数感知机 - 图19

数据集及最终训练结果

数据集同上一节逻辑回归
设置梯度下降参数α=0.001,训练次数500000次,最终得到:

  1. w = [304.00821.07732141,-40.92316773]]

结果如下图:
Figure_1.png