原理

将模型中FP32权值转换为FP16存储,并在支持的设备上开启FP16推理,可以获得推理加速,并且速度减少到原来的1/2。可以在模型转换时一键完成,使用方便。

使用方法

使用MNNConvert(c++)或者mnnconvert(python包中自带)进行转换,转换命令行中加上下述选项即可:

  1. --fp16