18.11:NeurIPS 2018提前看:可视化神经网络泛化能力 几篇论文通过对损失函数进行可视化,得出了几个有意思的结论:有shortcut 连接的网络结构损失函数曲面更加 规则(意味着更好训练);当网络变宽(神经元数量增加)时,损失函数曲面趋于平缓。 19.2:过往Net,皆为调参?一篇BagNet论文引发学界震动19.3:CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度19.3:CVPR2019 | 专门为卷积神经网络设计的训练方法:RePr19.3:告别规范化!MIT 谷歌等提出全新残差学习方法,效果惊艳19.7:Adam作者大革新, 联合Hinton等人推出全新优化方法Lookahead