主题

  • 优化

大纲

  • 使用Adam算法
  • compute total loss(average?)
  • refactor
  • use LeNet network!

下次直播

  • 使用Web Neural Network API
  • rename Repo name

  • use AlexNet
  • Batch normalization
    将每层的输入进行归一化,有助于解决internal covariate shift问题。当然最近transformer流行的是Layer normalization。不同normalization的区别可以学习张俊林老师关于normalization的博客。

https://zhuanlan.zhihu.com/p/34879333

  • predict