https://www.bilibili.com/video/BV1VW411A7BY?p=7
问题
1、Can Shallow network can fit any function?
万能近似定理:前馈神经网络,只需具备单层隐含层和有限个神经单元,就能以任意精度拟合任意复杂度的函数<br /> 这里的近似是否包括泛化?
2、Is Deep better than shallow?
更深的网络,表达力更强。<br /> 参考论文:On the Expressive Power of Deep Neural Networks
3、DNN是否有局部最小值?
有。有研究认为几乎所有的局部最小值都近似于全局最优值,因此找到局部最小值已经足够好了。
4、DNN的泛化性?
不容易过拟合,与经典泛化理论不同。有研究表明:模型参数量不能代表DNN模型的复杂度,因为实际上DNN只有部分参数是有work的。