1.batch-size
一般来说10-20间,取2的倍数(电脑是二进制的)
如果batch-size设置较大,GPU显存不够就会:CUDA out of memory 解决办法
batch_size==16,也就是说,要同时处理16副图
如果batch-size设置太小,没有设置大的效果好
更详细看https://zhuanlan.zhihu.com/p/420167970
2.worker 的设置
workers表线程数,window下只能=0,linux可以改
一般来说10-20间,取2的倍数(电脑是二进制的)
如果batch-size设置较大,GPU显存不够就会:CUDA out of memory 解决办法
batch_size==16,也就是说,要同时处理16副图
如果batch-size设置太小,没有设置大的效果好
更详细看https://zhuanlan.zhihu.com/p/420167970
workers表线程数,window下只能=0,linux可以改
让时间为你证明