适用于分类问题的损失函数
0-1损失函数
 <br /> 以应用在分类和回归中,直观的刻画分类的错误率,但是因为其非凸,非光滑的特点,使得算法对其很难进行直接优化。
合页损失函数
合页损失函数常用于SVM中,如果模型分类正确,损失为0,否则损失为;
在SVM中合页损失函数表示为
模型分类正确且间隔大于1时,损失为0,否则为
Logistic损失函数
Logistic损失函数是是0-1损失函数的凸上界,且该函数处处光滑。但是该损失函数对所有样本点都惩罚,因此对异常值更加敏感。
交叉熵损失函数Cross-Entropy
交叉熵损失函数也是0-1损失函数的光滑凸上界,当预测值 f∈[−1,1]时,另一个常用的代理损失函数是交叉熵损失函数
指数损失函数Exponential(AdaBoost)
对数损失函数(LR)
适用于回归问题的损失函数
平方损失函数(最小二乘法)
平方损失函数是光滑的,可以用梯度下降法求解,但是,当预测值和真实值差异较大时,它的惩罚力度较大,因此对异常点较为敏感。
绝对损失函数
绝对损失函数对异常点不敏感,其鲁棒性比平方损失更强一些,但是它在f = y处不可导。
Huber损失函数
Huber损失函数在∣f−y∣较小时为平方损失,在∣f−y∣较大时为线性损失,且处处可导,对异常点鲁棒性较好。
log-cosh损失函数
log-cosh损失函数比均方损失函数更加光滑,具有huber损失函数的所有优点,且二阶可导。因此可以使用牛顿法来优化计算,但是在误差很大情况下,一阶梯度和Hessian会变成定值,导致牛顿法失效。
分位数损失函数
预测的是目标的取值范围而不是值,是所需的分为数,介于0和1之间,
等于0.5时,相当于MAE。设置多个
值,得到多个预测模型,然后绘制成图表,即可知道预测范围及对应概率(两个
值相减)
最后如果转载,麻烦留个本文的链接,因为如果读者或我自己发现文章有错误,我会在这里更正,留个本文的链接,防止我暂时的疏漏耽误了他人宝贵的时间。
