准确率
一般最常见使用的是准确率,即预测结果正确的百分比 :estimator.score()
精确率(Precision)与召回率(Recall)
混淆矩阵
在分类任务下,预测结果(Predicted Condition)与正确标记(True Condition)之间存在四种不同的组合,构成混淆矩阵
精确率
- 精确率(查准率):预测结果为正例样本中真实为正例的比例
召回率
- 召回率(查全率): 真实为正例的样本中预测结果为正例的比例
两者之间的关系
查准率和查全率是一对矛盾的变量。一般来说,查准率高时,查全率往往偏低;而查全率高时,查准率往往偏低。
P-R曲线

P-R图直观地显示出学习器在样本总体上的查全率、查准率
- 若一个学习器的P-R曲线被另一个学习器的曲线完全“包住”,则可断言后者的性能优于前者
如果两个学习器的P-R曲线发生了交叉,
BEP还是过于简化,更常用的是F1度量:
注:F1度量是基于查准率和查全率的调和平均:
- 在一些应用中,对查准率和查全率的重视程度有所不同。例如在商品推荐系统中,为了尽可能少打扰用户,更希望推荐内容确是用户感兴趣的,此时查准率更重要;而在逃犯信息检索系统中,更希望尽可能少漏掉逃犯,此时查全率更重要。F1度量的一般形式——
,能让我们表达出对查准率/查全率的不同偏好,它定义为
ROC和AUC
- ROC曲线的纵轴是“真正例率”(TPR), TPR(True Positive Rate)可以理解为所有正类中,有多少被预测成正类), 横轴是”假正例率”(FRP), FPR(False Positive Rate)可以理解为所有反类中,有多少被预测成正类(正类预测错误) 。两者分别定义为

- 若一个学习器的ROC曲线被另一个学习器的曲线完全“包住”,则可断言后者的性能优于前者
- 如果两个学习器的P-R曲线发生了交叉,比较ROC曲线下的面积,即AUC。
