优化算法

SGD 随机梯度下降

学习率lr
动量momentum

  1. optimizer = torch.optim.SGD(model.parameters(),
  2. lr=config['learning_rate'],
  3. momentum=0.9)