Related work
- Self-training的思想:用pseudo label扩充数据集。eg:AdvSSL
- consistcency learning:让决策边界移动到低密度的地方。eg:GCT,CCT
Motivation
近年来都focus on consistency learning上,而忽略了self-training,实验发现self-training在数据量不那么小的时候,性能非常强。于是考虑将Self-training和consistcency learning组合起来做 semi-supervised segmentation
在GCT的基础上引用self-training的思想,达到扩展数据集的效果,使效果更好Method
结构

和
结构为 DeepLabv3+ with ResNet-50,两个网络的骨架部分的权重是通过同一个预训练模型加载的,分割头部的参数是随机的


和
输入是相同的
loss

、

Incorporation with the CutMix augmentation
- 生成两份unlabel data:unlabel1 和 unlabel2,并混合,带入2个f,得到两份先混合再训练输出p1和p2
- 将两份unlabel data带入两个模型得到4个输出,并混合同一f的输出,取max,得到两份先训练再混合的pseudo label
- 与第二步得到的label1和label2与p2和p1做cross entropy:


cutmix的作用:要求模型从局部视图识别对象,在cut区域中添加其他样本的信息可以进一步增强模型的定位能力
Experiments
Datasets:PASCAL VOC 2012 Cityscapes
Improvements over baselines

All the methods are based on DeepLabv3+ with ResNet-50 or ResNet-101. 模型的改进是有效的
Comparison with SOTA

- CPS(w/o CutMix) 除了比CutMix-Seg差,比其他的都好(说明加了self-training之后超过了GCT)
- CPS(w/ CutMix)是所有表现中最好的,特别是在1/16时比CutMix-Seg好3.08%和1.92%(说明CPS比CutMix-Seg中的mean teacher好)
- CutMix在少label中表现更好,eg:1/16比1/8提升大
Ablation experiments

(1)Cross pseudo supervision
(2)Comparison with cross probability consistency (self-training的作用)
(3) Combination/comparison with self-training (consistcency regularization的作用)

组合起来最好,这是因为consistcency regularization的影响
效果





没有cutmix效果还是不太好的,感觉主体网络还有提升的空间
discussion
为什么好?其他网络为什么不好?
self-training可以扩充数据集,consistency regularization 让决策边界移动到低密度的地方,simple
(b)CPC,GPC的简化版本,有flaw detector保证P质量,局限性是flaw detector只受labeled data训练
(c) Mean teacher,,局限性是强扰动将改变像素级任务的标签
(d)PseudoSeg,对输入的图像X做两次不同的数据增强,一种“弱增强”,一种“强增强”。将两个增强后图像输入同一个网络,得到两个不同的输出,因为“弱增强”下训练更加稳定,用“弱增强”后的图像作为target
怎样更好?
(1) 连接更多的
(2) 如何保证P的质量?threshold,flaw detector
self-training能做到多好
数据增强
