SVM原理

SVM是一种二类分类模型。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(间隔最大是它有别于感知机)
(1)当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机。
(2)当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机:
(3)当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。
注:以上各SVM的数学推导应该熟悉:硬间隔最大化(几何间隔)—-学习的对偶问题—-软间隔最大化(引入松弛变量)—-非线性支持向量机(核技巧)。

硬间隔

https://blog.csdn.net/qq_43601378/article/details/121971356

线性可分

image.png

支持向量到超平面的距离

image.png

软间隔

image.png
https://zhuanlan.zhihu.com/p/148598449

求软硬间隔的最优解

拉格朗日函数

  1. 引入

image.png

  1. 拉格朗日乘数法 | 约束条件/求极值 | 拉格朗日乘数法 | | —- | —- | | image.png | image.png | | image.png | image.png
    (多了约束条件后的求解函数) |

  2. 原始和对偶优化问题 | | 原始优化 | 对偶优化 | | —- | —- | —- | | 函数 | image.png
    image.png | image.png
    image.png | | 说明 | image.png | image.png |

  3. KKT条件

image.png

  1. 总结: