在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的吗?

image.png
由上图3.10可知,设想二维空间中只有两个样本点,每个点各属于一类的分类任务,此时SVM的分类超平面(直线)就是两个样本点连线的中垂线,两个点在分类面(直线)上的投影会落到这条直线上的同一个点,自然不是线性可分的。
image.png
假设存在一个SVM分类超平面使所有支持向量在该超平面上的投影依然线性可分,如图3.11所示。根据简单的初等几何知识不难发现,图中AB两点连线的中垂线所组成的超平面(绿色虚线)是相较于绿色实线超平面更优的解,这与之前假设绿色实线超平面为最优的解相矛盾。考虑最优解对应的绿色虚线,两组点经过投影后,并不是线性可分的。

是否存在一组参数使SVM训练误差为0?

image.png
经典算法-支持向量机 - 图4 (1)
由于不存在两个点在同一位置,因此对于任意的经典算法-支持向量机 - 图5,有经典算法-支持向量机 - 图6。对于任意经典算法-支持向量机 - 图7,固定经典算法-支持向量机 - 图8,只保留参数经典算法-支持向量机 - 图9
经典算法-支持向量机 - 图10 (2)
将任意经典算法-支持向量机 - 图11代入(2)
经典算法-支持向量机 - 图12 (3)
经典算法-支持向量机 - 图13 (4)
经典算法-支持向量机 - 图14 (5)
image.png

训练误差为0的SVM分类器一定存在吗?

虽然在问题2中我们找到了一组参数经典算法-支持向量机 - 图16以及经典算法-支持向量机 - 图17使得SVM的训练误差为0,但这组参数不一定是满足SVM条件的一个解。在实际训练一个不加入松弛变量的SVM模型时,是否保证得到的SVM分类器满足训练误差为0呢?
模型中解的限制条件经典算法-支持向量机 - 图18。我们已经得到了一组参数使得当经典算法-支持向量机 - 图19时,经典算法-支持向量机 - 图20;而当经典算法-支持向量机 - 图21时,经典算法-支持向量机 - 图22。现在需要找到一组参数满足更强的条件,即经典算法-支持向量机 - 图23
仍然固定b=0,于是预测公式经典算法-支持向量机 - 图24,将经典算法-支持向量机 - 图25展开,有
经典算法-支持向量机 - 图26
可以把每个经典算法-支持向量机 - 图27选择一个很大的值,同时取一个非常小的经典算法-支持向量机 - 图28,使得核映射经典算法-支持向量机 - 图29非常小,于是经典算法-支持向量机 - 图30在上式中占据绝对主导位置。因此SVM最优解也满足上述条件,同时一定使模型分类误差为0。

加入松弛变量的SVM的训练误差可以为0吗?

在实际应用中,如果使用SMO算法来训练一个加入松弛变量的线性SVM模型,并且惩罚因子C为任一未知常数,我们是否能得到训练误差为0的模型呢?
松弛变量的SVM模型优化目标函数包含经典算法-支持向量机 - 图31经典算法-支持向量机 - 图32,当我们的参数C选取较小的值时,后一项(正则项)将占据优化的较大比重。这样,一个带有训练误差,但是参数较小的点将成为更优的结果。一个简单的特例是,当C取0时,w也取0即可达到优化目标,但是显然此时我们的训练误差不一定能达到0。