Transformer 是 Google 团队在 17 年 6 月提出的 NLP 经典之作,
    由 Ashish Vaswani 等人在 2017 年发表的论文 Attention Is All You Need 中提出。
    Transformer 在机器翻译任务上的表现超过了 RNN,CNN,只用 encoder-decoder 和 attention 机制就能达到很好的效果,最大的优点是可以高效地并行化。