Wang, Yaqing, et al. “Generalizing from a few examples: A survey on few-shot learning.” ACM Computing Surveys (CSUR) (2019).
分类非常常见,但如果每个类只有几个标注样本,怎么办呢?

Few-Shot Learning in CVPR 2019

小样本学习(Few-Shot) - 图2

Meta-Learning Methods

  • [1] **Finding task-relevant features for few-shot learning by category traversal**

论文:链接
代码:https://github.com/Clarifai/few-shot-ctm

关键词: **“Category Traversal
每个task对support set的图像分别提取特征,忽略了support set的图像间的语义关系。模型可以通过整合support set所有图像的信息,从而找到最具有判别性的特征。
更详细可以参考我的另一篇笔记——> **https://www.yuque.com/weijiawu/research/vt83eg

  • [2] **Matching networks for one shot learning**

论文:http://www.cs.toronto.edu/~gkoch/files/msc-thesis.pdf

关键词: **Matching
相比孪生网络,
匹配网络(Match Network) 为支撑集和 Batch 集构建不同的编码器,最终分类器的输出是支撑集样本和 query 之间预测值的加权求和。
它显式的定义一个基于支撑集 小样本学习(Few-Shot) - 图3 的分类器,对于一个新的数据 小样本学习(Few-Shot) - 图4 ,其分类概率由小样本学习(Few-Shot) - 图5与支撑集 S 之间的距离度量得出.
进一步,支撑集样本 embedding 模型 g 能继续优化,并且支撑集样本应该可以用来修改测试样本的 embedding 模型 f。
这个可以通过如下两个方面来解决:
1)基于双向 LSTM 学习训练集的 embedding,使得每个支撑样本的 embedding 是其它训练样本的函数; 2)基于 attention-LSTM 来对测试样本 embedding,使得每个 Query 样本的 embedding 是支撑集 embedding 的函数。文章称其为 FCE (fully-conditional embedding)。
更详细可以参考我的另一篇笔记——> **https://www.yuque.com/weijiawu/research/qlvrwc

[1] Li, Hongyang, et al. “Finding task-relevant features for few-shot learning by category traversal.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.
[2] Vinyals, Oriol, et al. “Matching networks for one shot learning.Advances in neural information processing systems. 2016.