加速手段
模型设计
来自shufflenetv2:
- https://blog.csdn.net/u014380165/article/details/81322175
- https://blog.csdn.net/linmingan/article/details/81383912
注:内存访问消耗时间(memory access cost 缩写为 MAC)
- 卷积层输入输出通道一致:卷积层的输入和输出特征通道数相等时MAC最小,此时模型速度最快
- 减少卷积分组:过多的group操作会增大MAC,从而使模型速度变慢
- 减少模型分支:模型中的分支数量越少,模型速度越快
- 减少element-wise操作:element-wise操作所带来的时间消耗远比在FLOPs上的体现的数值要多,因此要尽可能减少element-wise操作(depthwise convolution也具有低FLOPs、高MAC的特点)
论文分析
- CNN网络优化学习总结——从MobileNet到ShuffleNet:https://blog.csdn.net/sun_28/article/details/78170878
一些论文
- Sparse Convolutional Neural Networks:http://openaccess.thecvf.com/content_cvpr_2015/papers/Liu_Sparse_Convolutional_Neural_2015_CVPR_paper.pdf