一、IOU(Intersection over Union)

1. 特性 (优点)

IoU 就是我们所说的交并比,是目标检测中最常用的指标,在anchor-based 的方法中,他的作用不仅用来确定正样本和负样本,还可以用来评价输出框(predict box)和 ground-truth 的距离。

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图1

  1. 可以说它可以反映预测检测框与真实检测框的检测效果。

  2. 还有一个很好的特性就是尺度不变性,也就是对尺度不敏感(scale invariant), 在 regression 任务中,判断 predict box 和 gt 的距离最直接的指标就是 IoU。(满足非负性;同一性;对称性;三角不等性)
    import numpy as np
    def Iou(box1, box2, wh=False):
    if wh == False:
    xmin1, ymin1, xmax1, ymax1 = box1
    xmin2, ymin2, xmax2, ymax2 = box2
    else:
    xmin1, ymin1 = int(box1[0]-box1[2]/2.0), int(box1[1]-box1[3]/2.0)
    xmax1, ymax1 = int(box1[0]+box1[2]/2.0), int(box1[1]+box1[3]/2.0)
    xmin2, ymin2 = int(box2[0]-box2[2]/2.0), int(box2[1]-box2[3]/2.0)
    xmax2, ymax2 = int(box2[0]+box2[2]/2.0), int(box2[1]+box2[3]/2.0)

    获取矩形框交集对应的左上角和右下角的坐标(intersection)

    xx1 = np.max([xmin1, xmin2])
    yy1 = np.max([ymin1, ymin2])
    xx2 = np.min([xmax1, xmax2])
    yy2 = np.min([ymax1, ymax2])

    计算两个矩形框面积

    area1 = (xmax1-xmin1) (ymax1-ymin1)
    area2 = (xmax2-xmin2)
    (ymax2-ymin2)
    inter_area = (np.max([0, xx2-xx1])) * (np.max([0, yy2-yy1])) #计算交集面积
    iou = inter_area / (area1+area2-inter_area+1e-6)  #计算交并比

    1. return iou

2. 作为损失函数会出现的问题 (缺点)

  1. 如果两个框没有相交,根据定义,IoU=0,不能反映两者的距离大小(重合度)。同时因为 loss=0,没有梯度回传,无法进行学习训练。
  2. IoU 无法精确的反映两者的重合度大小。如下图所示,三种情况 IoU 都相等,但看得出来他们的重合度是不一样的,左边的图回归的效果最好,右边的最差。

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图2

二、GIOU(Generalized Intersection over Union)

1、来源

在 CVPR2019 中,论文

《Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression》arxiv.org

的提出了 GIoU 的思想。由于 IoU 是比值的概念,对目标物体的 scale 是不敏感的。然而检测任务中的 BBox 的回归损失 (MSE loss, l1-smooth loss 等)优化和 IoU 优化不是完全等价的,而且 Ln 范数对物体的 scale 也比较敏感,IoU 无法直接优化没有重叠的部分。

这篇论文提出可以直接把 IoU 设为回归的 loss。

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图3

上面公式的意思是:先计算两个框的最小闭包区域面积 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图4
(通俗理解:同时包含了预测框和真实框的最小框的面积),再计算出 IoU,再计算闭包区域中不属于两个框的区域占闭包区域的比重,最后用 IoU 减去这个比重得到 GIoU。

附:

generalized-iou/g-darknetgithub.com[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图5

2、 特性[1]

  • 与 IoU 相似,GIoU 也是一种距离度量,作为损失函数的话, [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图6
    , 满足损失函数的基本要求
  • GIoU 对 scale 不敏感
  • GIoU 是 IoU 的下界,在两个框无线重合的情况下,IoU=GIoU
  • IoU 取值[0,1],但 GIoU 有对称区间,取值范围[-1,1]。在两者重合的时候取最大值 1,在两者无交集且无限远的时候取最小值 - 1,因此 GIoU 是一个非常好的距离度量指标。
  • 与 IoU 只关注重叠区域不同,GIoU 不仅关注重叠区域,还关注其他的非重合区域,能更好的反映两者的重合度。

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图7

  1. def Giou(rec1,rec2):
  2. #分别是第一个矩形左右上下的坐标
  3. x1,x2,y1,y2 = rec1
  4. x3,x4,y3,y4 = rec2
  5. iou = Iou(rec1,rec2)
  6. area_C = (max(x1,x2,x3,x4)-min(x1,x2,x3,x4))*(max(y1,y2,y3,y4)-min(y1,y2,y3,y4))
  7. area_1 = (x2-x1)*(y1-y2)
  8. area_2 = (x4-x3)*(y3-y4)
  9. sum_area = area_1 + area_2
  10. w1 = x2 - x1 #第一个矩形的宽
  11. w2 = x4 - x3 #第二个矩形的宽
  12. h1 = y1 - y2
  13. h2 = y3 - y4
  14. W = min(x1,x2,x3,x4)+w1+w2-max(x1,x2,x3,x4) #交叉部分的宽
  15. H = min(y1,y2,y3,y4)+h1+h2-max(y1,y2,y3,y4) #交叉部分的高
  16. Area = W*H #交叉的面积
  17. add_area = sum_area - Area #两矩形并集的面积
  18. end_area = (area_C - add_area)/area_C #闭包区域中不属于两个框的区域占闭包区域的比重
  19. giou = iou - end_area
  20. return giou

三、DIoU(Distance-IoU)[2]

1、来源

DIoU 要比 GIou 更加符合目标框回归的机制,将目标与 anchor 之间的距离,重叠率以及尺度都考虑进去,使得目标框回归变得更加稳定,不会像 IoU 和 GIoU 一样出现训练过程中发散等问题。论文中

Distance-IoUarxiv.org

基于 IoU 和 GIoU 存在的问题,作者提出了两个问题:

  1. 直接最小化 anchor 框与目标框之间的归一化距离是否可行,以达到更快的收敛速度?
  2. 如何使回归在与目标框有重叠甚至包含时更准确、更快?

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图8

其中, [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图9
[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图10
分别代表了预测框和真实框的中心点,且 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图11
代表的是计算两个中心点间的欧式距离。 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图12
代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图13

DIoU 中对 anchor 框和目标框之间的归一化距离进行了建模

附:

YOLOV3 DIoU GitHub 项目地址github.com

2、优点

  • 与 GIoU loss 类似,DIoU loss( [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图14
    )在与目标框不重叠时,仍然可以为边界框提供移动方向。
  • DIoU loss 可以直接最小化两个目标框的距离,因此比 GIoU loss 收敛快得多。
  • 对于包含两个框在水平方向和垂直方向上这种情况,DIoU 损失可以使回归非常快,而 GIoU 损失几乎退化为 IoU 损失。
  • DIoU 还可以替换普通的 IoU 评价策略,应用于 NMS 中,使得 NMS 得到的结果更加合理和有效。

实现代码:[3]

  1. def Diou(bboxes1, bboxes2):
  2. rows = bboxes1.shape[0]
  3. cols = bboxes2.shape[0]
  4. dious = torch.zeros((rows, cols))
  5. if rows * cols == 0:#
  6. return dious
  7. exchange = False
  8. if bboxes1.shape[0] > bboxes2.shape[0]:
  9. bboxes1, bboxes2 = bboxes2, bboxes1
  10. dious = torch.zeros((cols, rows))
  11. exchange = True
  12. # #xmin,ymin,xmax,ymax->[:,0],[:,1],[:,2],[:,3]
  13. w1 = bboxes1[:, 2] - bboxes1[:, 0]
  14. h1 = bboxes1[:, 3] - bboxes1[:, 1]
  15. w2 = bboxes2[:, 2] - bboxes2[:, 0]
  16. h2 = bboxes2[:, 3] - bboxes2[:, 1]
  17. area1 = w1 * h1
  18. area2 = w2 * h2
  19. center_x1 = (bboxes1[:, 2] + bboxes1[:, 0]) / 2
  20. center_y1 = (bboxes1[:, 3] + bboxes1[:, 1]) / 2
  21. center_x2 = (bboxes2[:, 2] + bboxes2[:, 0]) / 2
  22. center_y2 = (bboxes2[:, 3] + bboxes2[:, 1]) / 2
  23. inter_max_xy = torch.min(bboxes1[:, 2:],bboxes2[:, 2:])
  24. inter_min_xy = torch.max(bboxes1[:, :2],bboxes2[:, :2])
  25. out_max_xy = torch.max(bboxes1[:, 2:],bboxes2[:, 2:])
  26. out_min_xy = torch.min(bboxes1[:, :2],bboxes2[:, :2])
  27. inter = torch.clamp((inter_max_xy - inter_min_xy), min=0)
  28. inter_area = inter[:, 0] * inter[:, 1]
  29. inter_diag = (center_x2 - center_x1)**2 + (center_y2 - center_y1)**2
  30. outer = torch.clamp((out_max_xy - out_min_xy), min=0)
  31. outer_diag = (outer[:, 0] ** 2) + (outer[:, 1] ** 2)
  32. union = area1+area2-inter_area
  33. dious = inter_area / union - (inter_diag) / outer_diag
  34. dious = torch.clamp(dious,min=-1.0,max = 1.0)
  35. if exchange:
  36. dious = dious.T
  37. return dious

四、CIoU(Complete-IoU)

论文考虑到 bbox 回归三要素中的长宽比还没被考虑到计算中,因此,进一步在 DIoU 的基础上提出了 CIoU。其惩罚项如下面公式:

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图15
其中 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图16
是权重函数,

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图17
用来度量长宽比的相似性,定义为[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图18

完整的 CIoU 损失函数定义:

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图19

最后,CIoU loss 的梯度类似于 DIoU loss,但还要考虑 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图20
的梯度。在长宽在 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图21
的情况下, [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图22
的值通常很小,会导致梯度爆炸,因此在 [未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图23
实现时将替换成 1。[4]

实现代码:[5]

  1. def bbox_overlaps_ciou(bboxes1, bboxes2):
  2. rows = bboxes1.shape[0]
  3. cols = bboxes2.shape[0]
  4. cious = torch.zeros((rows, cols))
  5. if rows * cols == 0:
  6. return cious
  7. exchange = False
  8. if bboxes1.shape[0] > bboxes2.shape[0]:
  9. bboxes1, bboxes2 = bboxes2, bboxes1
  10. cious = torch.zeros((cols, rows))
  11. exchange = True
  12. w1 = bboxes1[:, 2] - bboxes1[:, 0]
  13. h1 = bboxes1[:, 3] - bboxes1[:, 1]
  14. w2 = bboxes2[:, 2] - bboxes2[:, 0]
  15. h2 = bboxes2[:, 3] - bboxes2[:, 1]
  16. area1 = w1 * h1
  17. area2 = w2 * h2
  18. center_x1 = (bboxes1[:, 2] + bboxes1[:, 0]) / 2
  19. center_y1 = (bboxes1[:, 3] + bboxes1[:, 1]) / 2
  20. center_x2 = (bboxes2[:, 2] + bboxes2[:, 0]) / 2
  21. center_y2 = (bboxes2[:, 3] + bboxes2[:, 1]) / 2
  22. inter_max_xy = torch.min(bboxes1[:, 2:],bboxes2[:, 2:])
  23. inter_min_xy = torch.max(bboxes1[:, :2],bboxes2[:, :2])
  24. out_max_xy = torch.max(bboxes1[:, 2:],bboxes2[:, 2:])
  25. out_min_xy = torch.min(bboxes1[:, :2],bboxes2[:, :2])
  26. inter = torch.clamp((inter_max_xy - inter_min_xy), min=0)
  27. inter_area = inter[:, 0] * inter[:, 1]
  28. inter_diag = (center_x2 - center_x1)**2 + (center_y2 - center_y1)**2
  29. outer = torch.clamp((out_max_xy - out_min_xy), min=0)
  30. outer_diag = (outer[:, 0] ** 2) + (outer[:, 1] ** 2)
  31. union = area1+area2-inter_area
  32. u = (inter_diag) / outer_diag
  33. iou = inter_area / union
  34. with torch.no_grad():
  35. arctan = torch.atan(w2 / h2) - torch.atan(w1 / h1)
  36. v = (4 / (math.pi ** 2)) * torch.pow((torch.atan(w2 / h2) - torch.atan(w1 / h1)), 2)
  37. S = 1 - iou
  38. alpha = v / (S + v)
  39. w_temp = 2 * w1
  40. ar = (8 / (math.pi ** 2)) * arctan * ((w1 - w_temp) * h1)
  41. cious = iou - (u + alpha * ar)
  42. cious = torch.clamp(cious,min=-1.0,max = 1.0)
  43. if exchange:
  44. cious = cious.T
  45. return cious

五、损失函数在 YOLOv3 上的性能 (论文效果)

[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图24

目标检测算法之 AAAI 2020 DIoU Loss 已开源 (YOLOV3 涨近 3 个点)cloud.tencent.com

推荐文章:

CrazyVertigo:目标检测回归损失函数简介:SmoothL1/IoU/GIoU/DIoU/CIoU Losszhuanlan.zhihu.com[未看]IoU、GIoU、DIoU、CIoU损失函数的那点事儿 - 知乎 - 图25

参考

  1. ^特性参考 https://zhuanlan.zhihu.com/p/57863810
  2. ^DIoU 参考 https://mp.weixin.qq.com/s?__biz=MzUxNjcxMjQxNg==&mid=2247493985&idx=3&sn=23da3173b481d309903ec0371010d9f2&chksm=f9a19beeced612f81f94d22778481ffae16b25abf20973bf80917f9ff9b38b3f78ecd8237562&mpshare=1&scene=1&srcid=&sharer_sharetime=1575276746557&sharer_shareid=42a896371dfe6ebe8cc4cd474d9b747c&key=e2a6a5ccea4b8ce456e144f8db72f8becd6cfd3489f508fde8f890126594ca445adaf6bd6018077f94490c98f494d0eaf8c70165161be0cb274041ca9948ce62f6efe6e8bd9123a5b88be2b216b3da7e&ascene=1&uin=MjAyNTQwODM2NQ%3D%3D&devicetype=Windows+10&version=62070158&lang=zh_CN&pass_ticket=lZlnK6GAZ9ytbMcunsgTln9TaxVld4X1XGi8tTmIAmsi3d5CrasWo8RlWqYnGtqv
  3. ^DIOU 代码实现 https://blog.csdn.net/TJMtaotao/article/details/103317267
  4. ^AAAI 2020 | DIoU 和 CIoU:IoU 在目标检测中的正确打开方式 https://bbs.cvmart.net/articles/1396
  5. ^https://blog.csdn.net/TJMtaotao/article/details/103317267
    https://zhuanlan.zhihu.com/p/94799295