PyTorch 提高速度
原始文档:https://www.yuque.com/lart/ugkv9f/ugysgn 声明: 大部分内容来自知乎和其他博客的分享, 这里只作为一个收集罗列. 欢迎给出更多建议.
知乎回答(欢迎点赞哦):
- pytorch dataloader 数据加载占用了大部分时间, 各位大佬都是怎么解决的? - 人民艺术家的回答 - 知乎
使用 pytorch 时, 训练集数据太多达到上千万张, Dataloader 加载很慢怎么办? - 人民艺术家的回答 - 知乎
更新日志
2019年11月29日:更新一些模型设计技巧和推理加速的内容,补充了下apex的一个介绍链接, 另外删了tfrecord,pytorch能用么?这个我记得是不能,所以删掉了(表示删掉:<)。
- 2019年11月30日:补充MAC的含义,补充ShuffleNetV2的论文链接
- 2019年12月02日:之前说的pytorch不能用tfrecord,今天看到https://www.zhihu.com/question/358632497下的一个回答,涨姿势了。
- 2019年12月23日:补充几篇关于模型压缩量化的科普性文章。
-
预处理提速
尽量减少每次读取数据时的预处理操作, 可以考虑把一些固定的操作, 例如
resize
, 事先处理好保存下来, 训练的时候直接拿来用。- 将预处理搬到 GPU 上加速。
- Linux 可以使用
[NVIDIA/DALI](https://github.com/NVIDIA/DALI)
。 - 使用基于 Tensor 的图像处理操作。
- Linux 可以使用
选择优化得更好的数据增强库,例如Albumentations。
IO 提速
mmcv 对数据的读取提供了比较高效且全面的支持:OpenMMLab:MMCV 核心组件分析(三): FileClient
加快图片读取
opencv
一般要比PIL
要快 。- 请注意,
PIL
的惰性加载的策略使得其看上去open
要比opencv
的imread
要快,但是实际上那并没有完全加载数据。可以对open
返回的对象调用其load()
方法,从而手动加载数据,这时的速度才是合理的。
- 请注意,
- 对于
jpeg
读取, 可以尝试jpeg4py
。 - 存
bmp
图(降低解码时间)。 关于不同图像处理库速度的讨论:Python 的各种 imread 函数在实现方式和读取速度上有何区别? - 知乎
降低读取次数
对于大规模的小文件读取, 建议转成单独的文件, 可以选择考虑
[TFRecord(Tensorflow)](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
,[recordIO(recordIO)](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
,[hdf5](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
,[pth](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
,[n5](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
,[lmdb](https://github.com/Lyken17/Efficient-PyTorch#data-loader)
等。TFRecord
:https://github.com/vahidk/tfrecordlmdb
数据库:给 pytorch 读取数据加速 - 体 hi 的文章 - 知乎
借助内存
直接载到内存里面。
- 将图片读取后存到一个固定的容器对象中。
- YoloV5 中的
[--cache](https://github.com/ultralytics/yolov5/blob/19f33cbae29ac2127dd877b52e228c178dda6086/utils/dataloaders.py#L521-L534)
。
- YoloV5 中的
- 将图片读取后存到一个固定的容器对象中。
-
借助固态
机械硬盘换成 NVME 固态。参考自如何给你 PyTorch 里的 Dataloader 打鸡血 - MKFMIKU 的文章 - 知乎
训练策略
更低的精度
在训练中使用低精度(
FP16
甚至INT8
、二值网络、三值网络)表示取代原有精度(FP32
)表示。
可以节约一定的显存并提速, 但是要小心数值溢出。 混合精度训练的介绍文章:
[NVIDIA/Apex](https://github.com/nvidia/apex)
提供的混合精度支持。PyTorch1.6 开始提供的
[torch.cuda.amp](https://pytorch.org/docs/stable/notes/amp_examples.html)
以支持混合精度。更大的批次
更大的批次在固定训练周期的情况下往往会带来更短的训练时间。但是大的批次面临着超参数的设置、显存占用问题等诸多考量,这又是另一个备受关注的领域了。
超参数设置
- Accurate, large minibatch SGD: training imagenet in 1 hour,论文
优化显存占用
- Gradient Accumulation
- Gradient Checkpointing
- Training deep nets with sublinear memory cost,论文
- In-Place Operation
在训练循环之前设置
torch.backends.cudnn.benchmark = True
可以加速计算。由于计算不同内核大小卷积的 cuDNN 算法的性能不同,自动调优器可以运行一个基准来找到最佳算法。当你的输入大小不经常改变时,建议开启这个设置。如果输入大小经常改变,那么自动调优器就需要太频繁地进行基准测试,这可能会损害性能。它可以将向前和向后传播速度提高 1.27x 到 1.70x。- 使用页面锁定内存,即在 DataLoader 中设定
[pin_memory=True](https://pytorch.org/docs/stable/data.html#memory-pinning)
。 - 合适的
num_worker
,细节讨论可见Pytorch 提速指南 - 云梦的文章 - 知乎。 - optimizer.zero_grad(set_to_none=False)这里可以通过设置
set_to_none=True
来降低的内存占用,并且可以适度提高性能。但是这也会改变某些行为,具体可见文档。通过model.zero_grad()
或optimizer.zero_grad()
将对所有参数执行memset
,并通过读写操作更新梯度。但是,将梯度设置为None
将不会执行memset
,并且将使用“只写”操作更新梯度。因此,设置梯度为None
更快。 - 反向传播期间设定使用
eval
模式并使用torch.no_grad
关闭梯度计算。 - 可以考虑使用channels_last的内存格式。
用
[DistributedDataParallel](https://pytorch.org/docs/stable/notes/cuda.html#use-nn-parallel-distributeddataparallel-instead-of-multiprocessing-or-nn-dataparallel)
代替[DataParallel](https://pytorch.org/docs/stable/notes/cuda.html#use-nn-parallel-distributeddataparallel-instead-of-multiprocessing-or-nn-dataparallel)
。对于多 GPU 来说,即使只有单个节点,也总是优先使用DistributedDataParallel
而不是DataParallel
,因为DistributedDataParallel
应用于多进程,并为每个 GPU 创建一个进程,从而绕过 Python 全局解释器锁(GIL)并提高速度。模型搭建
不要初始化任何用不到的变量,因为 PyTorch 的初始化和
forward
是分开的,他不会因为你不去使用,而不去初始化。[@torch.jit.script](https://pytorch.org/docs/stable/generated/torch.jit.script.html#torch.jit.script)
,使用 PyTroch JIT 将逐点运算融合到单个 CUDA kernel 上。- 在使用混合精度的 FP16 时,对于所有不同架构设计,设置尺寸为 8 的倍数。
BN 之前的卷积层可以去掉 bias。因为在数学上,bias 可以通过 BN 的均值减法来抵消。我们可以节省模型参数、运行时的内存。
数据操作
将 batch size 设置为 8 的倍数,最大化 GPU 内存的使用。
- GPU 上尽可能执行 NumPy 风格的操作。
- 使用
del
释放内存占用。 - 避免不同设备之间不必要的数据传输。
- 创建张量的时候,直接指定设备,而不要创建后再传输到目标设备上。
- 使用
[torch.from_numpy(ndarray)](https://pytorch.org/docs/stable/generated/torch.from_numpy.html#torch-from-numpy)
或者[torch.as_tensor(data, dtype=None, device=None)](https://pytorch.org/docs/stable/generated/torch.as_tensor.html#torch-as-tensor)
,这可以通过共享内存而避免重新申请空间,具体使用细节和注意事项可参考对应文档。如果源设备和目标设备都是 CPU,torch.from_numpy
和torch.as_tensor
不会拷贝数据。如果源数据是 NumPy 数组,使用torch.from_numpy
更快。如果源数据是一个具有相同数据类型和设备类型的张量,那么torch.as_tensor
可以避免拷贝数据,这里的数据可以是 Python 的 list, tuple,或者张量。 使用非阻塞传输,即设定
non_blocking=True
。这会在可能的情况下尝试异步转换,例如,将页面锁定内存中的 CPU 张量转换为 CUDA 张量。优化器设置
将模型参数存放到一块连续的内存中,从而减少
optimizer.step()
的时间。[contiguous_pytorch_params](https://github.com/PhilJd/contiguous_pytorch_params)
使用 APEX 中的fused building blocks
模型设计
CNN
ShuffleNetV2,论文。
- 卷积层输入输出通道一致: 卷积层的输入和输出特征通道数相等时 MAC(内存访问消耗时间,
memory access cost
缩写为MAC
) 最小, 此时模型速度最快 - 减少卷积分组: 过多的 group 操作会增大 MAC, 从而使模型速度变慢
- 减少模型分支: 模型中的分支数量越少, 模型速度越快
- 减少
element-wise
操作:element-wise
操作所带来的时间消耗远比在 FLOPs 上的体现的数值要多, 因此要尽可能减少element-wise
操作。depthwise convolution
也具有低 FLOPs 、高 MAC 的特点。Vision Transformer
- 卷积层输入输出通道一致: 卷积层的输入和输出特征通道数相等时 MAC(内存访问消耗时间,
降低复杂度: 例如模型裁剪和剪枝, 减少模型层数和参数规模。
改模型结构: 例如模型蒸馏, 通过知识蒸馏方法来获取小模型。
推理加速
更低的精度
在推理中使用低精度(
FP16
甚至INT8
、二值网络、三值网络)表示取代原有精度(FP32
)表示。TensorRT
是 NVIDIA 提出的神经网络推理(Inference)引擎, 支持训练后 8BIT 量化, 它使用基于交叉熵的模型量化算法, 通过最小化两个分布的差异程度来实现- Pytorch1.3 开始已经支持量化功能, 基于 QNNPACK 实现, 支持训练后量化, 动态量化和量化感知训练等技术
- 另外
Distiller
是 Intel 基于 Pytorch 开源的模型优化工具, 自然也支持 Pytorch 中的量化技术 - 微软的
NNI
集成了多种量化感知的训练算法, 并支持PyTorch/TensorFlow/MXNet/Caffe2
等多个开源框架
更多细节可参考有三 AI:【杂谈】当前模型量化有哪些可用的开源工具?。
算子融合
- 模型推理加速技巧:融合 BN 和 Conv 层 - 小小将的文章 - 知乎
- 网络 inference 阶段 conv 层和 BN 层的融合 - autocyz 的文章 - 知乎
-
重参数化(Re-Parameterization)
这里主要指结构上的重参数化,即用一个结构的一组参数转换为另一组参数,并用转换得到的参数来参数化另一个结构。只要参数的转换是等价的,这两个结构的替换就是等价的。更多细节可见结构重参数化:利用参数转换解耦训练和推理结构 - 丁霄汉的文章 - 知乎。这里要注意和另一个“重参数”区分开。
典型工作有: ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks,论文
- ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting,论文
- RepVGG: Making VGG-style ConvNets Great Again, 论文
Diverse Branch Block: Building a Convolution as an Inception-like Unit,论文
时间分析
Python 自带的性能分析模块
profile
,cProfile
和hotshot
。PyTorch Profiler 是一种工具,可在训练和推理过程中收集性能指标。Profiler 的上下文管理器 API 可用于更好地了解哪种模型算子成本最高,检查其输入形状和堆栈记录,研究设备内核活动并可视化执行记录。
项目推荐
基于 Pytorch 实现模型压缩: 模型量化、剪枝、BN融合以及部署。
扩展阅读
- 使用 pytorch 时, 训练集数据太多达到上千万张, Dataloader 加载很慢怎么办? - 知乎
- PyTorch 有哪些坑/bug? - 知乎
- Optimizing PyTorch training code
- 26 秒单 GPU 训练 CIFAR10, Jeff Dean 也点赞的深度学习优化技巧 - 机器之心的文章 - 知乎
- 线上模型加入几个新特征训练后上线, tensorflow serving 预测时间为什么比原来慢 20 多倍? - TzeSing 的回答 - 知乎
- 深度学习模型压缩
- 今天, 你的模型加速了吗? 这里有 5 个方法供你参考(附代码解析)
- pytorch 常见的坑汇总 - 郁振波的文章 - 知乎
- Pytorch 提速指南 - 云梦的文章 - 知乎
- 优化 PyTorch 的速度和内存效率(2022)