无论是SVM还是SVR,如果不考虑偏置项b,我们会发现模型总能表示为核函数的线性组合。更一般地,存在表示定理(representer theorem)

    核方法 - 图1 为核函数 核方法 - 图2 对应的再生希尔伯特空间, 核方法 - 图3 表示 核方法 - 图4 空间中关于 核方法 - 图5 的范数,对于任意单调递增函数 核方法 - 图6 和任意非负损失函数 核方法 - 图7,优化问题

    核方法 - 图8%20%3D%20%5COmega(%5CVert%20h%20%5CVert%5Cmathbb%7BH%7D)%20%2B%20%5Cell(h(%5Cmathbf%7Bx%7D_1%2Ch(%5Cmathbf%7Bx%7D_2%2C…%2Ch(%5Cmathbf%7Bx%7D_m))%20%5Cqquad%20(20)%0A#card=math&code=min%7Bh%20%5Cin%20%5Cmathbb%7BH%7D%7D%20F%28h%29%20%3D%20%5COmega%28%5CVert%20h%20%5CVert_%5Cmathbb%7BH%7D%29%20%2B%20%5Cell%28h%28%5Cmathbf%7Bx%7D_1%2Ch%28%5Cmathbf%7Bx%7D_2%2C…%2Ch%28%5Cmathbf%7Bx%7D_m%29%29%20%5Cqquad%20%2820%29%0A&id=JqtbG)

    的解总可写为:

    核方法 - 图9%20%3D%20%5Csum%7Bi%3D1%7D%5Em%20a_i%20%5Ckappa(%5Cmathbf%7Bx%7D%2C%5Cmathbf%7Bx%7D_i)%0A#card=math&code=h%5Ex%28%5Cmathbf%7Bx%7D%29%20%3D%20%5Csum%7Bi%3D1%7D%5Em%20a_i%20%5Ckappa%28%5Cmathbf%7Bx%7D%2C%5Cmathbf%7Bx%7D_i%29%0A&id=o6AE4)

    这个定理表明,对于形如式(20),旨在最小化损失和正则化项之和的优化问题,解都可以表示为核函数的线性组合。

    基于核函数的学习方法,统称为核方法(kernal methods)。最常见的就是通过核化(引入核函数),将线性学习器扩展为非线性学习器。这不仅限于SVM,事实上LR和LDA也都可以采用核函数,只是SVM使用hinge损失,解具有稀疏性所以用得更多。