Chen, Y., Wang, W., Zhou, Y., Yang, F., Yang, D., & Wang, W. (2020). Self-Training for Domain Adaptive Scene Text Detection. Retrieved from http://arxiv.org/abs/2005.11487

Introduction

背景:作者认为大量的labled数据是必不可少的在现今的表现好的强监督文本检测器,然后data collection和 annotation是成本很高而且代价很高的
因此改论文提出了一个self-trianing框架去为一些unannotated videos or images产生一些pseudo-label用于训练提升target domian 的表现。
为了减少FP和FN,该论文利用了detection and tracking results去产生更好的pseudo-label。
image.png

Methods

The contributions are as follows:
1、提出一个domain adaptive 场景文本检测器,使用unlabeled videos和image进行训练。
2、提出一个Text Mining Module(TMM)融合detection 和 tracking的结果,mine hard examples of less noise
3、对于只有image的数据,设计了一种image-to-video的方式去产生video,从而帮助只有image的数据集也能使用论文中提出的这种方法。

Framework Overview

整个网络框架主要包含三个部分:
1、Detection module
2、Tracking module
3、Text Mining Module(TMM)

首先在source domain上面训练模型,然后使用detector和tracker对target domain上的video数据(如果target domain没有video形式的数据,使用image形式的数据去生产)进行处理产生pseudo-label,最后结合detection和tracking的结果,使用TMM对pseudo-label的hard example进行mine。具体的pseudo-label计算如下:
image.png
STD-Domain - 图3是Image A的检测结果,STD-Domain - 图4代表在STD-Domain - 图5中但是不在STD-Domain - 图6中,STD-Domain - 图7指的是hard negatives和STD-Domain - 图8hard positives。
整体网络框架如下:
image.png
如上图所示:
yellow box是 the detection results
red box 是 the tracking results
blue, purple (hard negative) and orange (hard positive) 是 trajectory results
Each frame of the video 都会被detector和tracker处理。
image.png
上面这个图是trajectories, tracking results and detection results的关系,绿色代表匹配成功,黄色代表应该被ignore的weak match。
具体是用maximum intersection-over-union (IoU)去匹配这个关系,last item STD-Domain - 图11 in a trajectory STD-Domain - 图12 is the trajectory result . 在STD-Domain - 图13帧中,STD-Domain - 图14有一个tracking result STD-Domain - 图15
STD-Domain - 图16 is the matching index,计算如下:
image.png
如果STD-Domain - 图18, STD-Domain - 图19就会被STD-Domain - 图20代替,因此这个时候detection result or a tracking result 有一个会被 joined into STD-Domain - 图21. 通过这种方式去融合detection和tracking获得一个more accurate trajectory。

Text Mining Module(TMM)

TMM主要有三个作用:
(1).选择合适的detection和tracking result作为最终的trajectory result.。
(2).预测一个segmentation mask作为轨迹trajectory result.
(3).第三个任务是hard example mining
在trajectory中,如果一个 tracking result 如果伴随 several consecutive detection results,作者任务这个是hard positive。
如果trajectories是很短的或者有很少的 few detection results认为这个是hard negatives。

When No Video Available

使用sophisticated data enhancement techniques (Gen-Straight) 去将image合成产生video。对于一个image先随机产生一个a rotation angle θ、scaling factor δ和transformation center c。
使用这些参数基于affine transformation matrix去产生ending frame of the video。一旦starting frame STD-Domain - 图22 and the ending frameSTD-Domain - 图23确定以后,video of length STD-Domain - 图24 can be generated by interpolation.

Balance Loss

为了抑制pseudo label中的noise label,提出了一个balance loss如下所示:针对different samples different labels有不同的loss权重相当。
image.png

Experiments

image.png
image.png

Curved Text Detection in Natural Scene Images with Semi- and Weakly-Supervised Learning

https://arxiv.org/abs/1908.09990

Introduction

背景:pixel-level annotations是高成本的,为了降低成本论文中作者提出使用a small amount of pixel-level annotated data和大量的rectangles标注的数据进行训练。
首先使用少量的pixel-level的标注数据去训练一个baseline,然后使用这个baseline去annotate unlabeled或者weakly labeled data.

The contributions are as follows:
1、提出一个weakly-supervised 场景文本检测器,使用a small amount data with strong polygon/pixel-level annotations 和 a large amount of unannotated or weakly annotated data.进行训练。
2、使用ground-truth bounding boxes as proposals去产生pseudo label。

image.png
Feature Extractor: ResNet50 和 FPN
Text Proposal Network: 基于提取到的feature产生text proposal。。 使用a fully convolutional network 产生 text proposals. 采用{0.2, 0.5, 1, 2, 5} 的anchors 比例 on five FPN stages {P2, P3, P4, P5, P6}
Region Feature Sampler: 基于proposal 和feature使用region feature sampler调整定位。。。 ROI-Align
Coarse Localization Network: 使用two fully- connected layers 做 text/non-text classification, coarsely localize curved text with rectangles
Fine Localization Network: made up of four convolution layers is to localize curved text finely with binary mask within given rectangles

Learning strategies

1、Naive strategy
使用unannotated data 直接产生pseudo label进行训练
在小数据上训练得到一个baseline之后,在unlabled数据集上产生candidate pseudo annotation set,STD-Domain - 图29
满足公式STD-Domain - 图30取个阈值进行监督。
2、Filter strategy
使用 a large amount of weakly annotated data STD-Domain - 图31 with horizontal rectangles STD-Domain - 图32作为辅助去产生这个pseudo label
image.png
其实就是用box和pseudo label做个iou计算,过滤掉一些iou小的pseudo label。
3、Local strategy
we directly take the ground-truth bound- ing boxes as proposals,感觉和我们不一样的只是他这个conv feature应该是用整个图训的,就是mask rcnn提取到的backbone的feature。
image.png

Experiments

image.png
image.png

WeText: Scene Text Detection under Weak Supervision

https://arxiv.org/abs/1710.04826

WordSup: Exploiting Word Annotations for Character based Text Detection

https://arxiv.org/abs/1708.06720

[1] R. Li, M. En, J. Li, and H. Zhang, “Weakly supervised text attention network for generating text proposals in scene images,” in ICDAR, vol. 1, 2017, pp. 324–330
[2] L. Neumann and J. Matas, “A method for text localization and recognition in real-world images,” in ACCV, 2010, pp. 770–783
[3] S. Tian, Y. Pan, C. Huang, S. Lu, K. Yu, and C. Lim Tan, “Text flow: A unified text detection system in natural scene images,” in ICCV, 2015, pp. 4651–4659
[4] C. Bartz, H. Yang, and C. Meinel, “SEE: towards semi-supervised end-to-end scene text recognition,” in AAAI, 2018.