- Preface 译者 注
- 摘要
- Acknowledgements
- Chapter 1 Introduction
- Chapter 2 An Overview of Reading Comprehension
- Chapter 3 Neural Reading Comprehension Models
- Chapter 4 The Future of Reading Comprehension
- Chapter 5 Open Domain Question Answering
- Chapter 6 Conversational Question Ansering
- Chapter 7 Conclusions
- Bibliography
- 结束-感想
- 译者介绍
- Docs »
- 结束-感想
- View page source
结束-感想¶
时间:三个月翻译,一个月修理格式。也是够慢的。可以del掉这个alias了。
坦白说,翻译这个事情还真的挺累的,有时候下班太累了就不想看了。有时候看了就不想写了。有时候没看懂,也不知道该咋写,经常借助有道词典。最近工作紧张起来,也没有很多时间仔细看论文,越往后越累,越难,好忧桑。。。周末赶紧加班弄好,喝了一天的红茶,终于搞定了。虽然有点累,不过挺开心。
有很多时间花在公式、格式上了。以为之前翻译过一本书,再来弄这个会容易很多,我还是太年轻了。
文章中讨论的知识很全面,我想可以作为一个参考书性质的东西,遇到问题的时候回头来看看,查找一下解决方案。有时候也不是你没学过,学过会忘记啊。最近遇到一个问题没有数据集,我也很头疼,就随便翻翻这本论文,就看到back trans,emmm,尽管我已经读过这个了。。。。我之前咋就没想到[可能是我太傻了]
anyway,这个过程也复习了英语,也全面预习了一下神经阅读理解的内容,也熟悉了一下markdown、readdocs以及公式编辑器,还有typora这个挺好用的markdown编辑器。读论文读的我都想回炉继续进修了。特别是最近又在看Cho 的 Natural Language Uniderstanding with Distributed Representation ,开头第一句就很有趣,总感觉在这一点上老师和我能聊在一起。什么the road we will not take,还把乔姆斯基以及Yoav Goldberg大似夸奖了一番。还有github上的有趣的readme。
最近在跟stanford cs224n的课程,感兴趣的同学可以到这里:
https://github.com/DukeEnglish/cs224n_learning_note
虽然学过了,咋感觉都忘记了呢。对不起我的研究生导师。。。
这个课程的default final 是squad2。到时候回来再借鉴一下这个论文吧。
再次感谢作者的这篇论文,收获很多。也很感谢其对NLP的贡献。
大家加油,与君共勉。
啊,好好学习,天天向上吧!!!
Duke Lee
另外,感谢以下公众号/社区的转发,希望我们可以一起学习一起进步: DataFun:https://mp.weixin.qq.com/s/2gUhlgIaL_Qi0M8iPbWMkA AINLP:https://mp.weixin.qq.com/s/3c1SMqHroyy3yXKW4cvITA
© Copyright 2019, Junyi Li (original:chendanqi)
Built with Sphinx using a theme provided by Read the Docs.