Lin, Tsung-Yi, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. “Focal loss for dense object detection.” In Proceedings of the IEEE international conference on computer vision, pp. 2980-2988. 2017.

    论文:https://arxiv.org/abs/1708.02002
    链接:目标检测算法 - RetinaNet 物体检测之Focal Loss及RetinaNet

    目前主流的检测算法分为两个方向:(1)以R-CNN[2]系列为代表的two-stage方向;(2)以YOLO[3]系列为代表的one-stage方向。虽然one-stage方向的速度更快,但是其精度往往比较低。究其原因,有两个方面:

    1. 正样本(Positive Example)和负样本(Negative Example)的不平衡;
    2. 难样本(Hard Example)和易样本(Easy Example)的不平衡。

    这些不平衡会造成trianing loss为占多数但包含信息量很少的负样本所支配,少量正样本提供的关键信息确不能在一般所用的training loss中发挥正常的作用,从而无法得到对模型训练提供正确指导的loss。而Two Stage方法得到proposal后,其候选区域要远远小于One Stage产生的候选区域,因此不会产生严重的类别失衡问题)。
    Focal Loss的目的:消除类别不平衡 + 挖掘难分样本