我把NLP文本分类任务的10篇经典论文称为“baseline 论文”——基石论文。吃透baseline论文,是学习NLP其他细分任务论文的基础。这10篇论文的篇目如下:
    ICLR2013,Word2Vec 词向量扛鼎之作
    《Efficient Estimation of Word Representation in Vector Space》
    EMNLP2014,Glove:最出名的词向量训练方法之一
    《GloVe: Global Vectors for Word Representation》
    EMNLP2015,Char Embedding 第一篇介绍字符嵌入的论文
    《Compositional character models for open vocabulary word representation》
    EMNLP2014,TextCNN 第一篇CNN用于文本分类的文章
    《Convolutional Neural Network for Sentence Classification》
    NIPS2015,CharTextCNN 第一篇字符级别文本分类模型
    《Character-level Convolutional Networks for Text Classification》
    EACL2017,FastText 细粒度的文本分类
    《Bag of Tricks for Efficient Text Classification》
    LSTM_NMT 使用LSTM解决机器翻译问题
    《Sequence to Sequence Learning with Neural Networks》
    ICLR2015,Bahdanau_NMT 第一篇介绍attention的论文
    《Neural Machine Translation by Jointly Learning to Align and Translate》
    NAACL2016,Han_Attention attention用于文本分类
    《Hierarchical Attention Networks for Document》
    Coling2018,SGM 第一篇使用序列生成做多标签文本分类
    《SGM: Sequence Generation Model for Multi-label Classification》