求导关键:detach:固定网络参数 求导关键: 定义计算图反向传播即调用 函数/变量.backward()获得梯度,即变量名.grad detach:固定网络参数将该计算移动到记录的计算图外,因此对于u,u是x*x的值,是常量,因此z对x求导是u而不是 y = x*xu = y.detach()z = u*xz.sum().backward() # 对于标量一般都是求完sum后再去求导x.grad == u