autograd——自动求导系统
torch.autograd.backward
功能:自动求导梯度
tensors:用于求导的张量,如loss;
retain_graph:保存计算图,因为Pytorch是动态图机制,每次反向传播后动态图都会释放掉,如果还需要动态图则将该参数设为True;
create_graph:创建导数计算图,通常用于高阶求导
grad_tensors:多梯度权重,如多个loss需要求梯度,设置各个loss的权重。
张量的backward()方法实际就是直接调用了torch.autograd.backward方法。