参考来源:
CSDN:torch.nn.parameter.Parameter 分析
Pytorch 官方文档:PARAMETER
1. 作用
Parameter 是一种可以作为模型参数的 Tensor 。
a kind of Tensor that is to be considered a module parameter.
Parameter 是 **Tensor** 的子类,同时拥有一种非常特殊的性质:当他们与 Module S 一起使用时,也就是说当它们作为 **Module** 参数进行使用时,它们会自动添加到 **Module** 的参数列表中,并且出现在 **parameters()** 迭代器里。(这样就可以自动计算梯度等)
Parameters are Tensor subclasses, that have a very special property when used with Module S ——when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in parameters() iterator. Assigning a Tensor doesn’t have such effect.
2. 构造参数
**data**(Tensor)— parameter tensor**requires_grad**(bool, optional)— if the parameter requires gradient. Default: True.
3. Example
定义一个网络 **Module** 如下:
class LayerNorm(nn.Module):def __init__(self, features, eps=1e-6):super(LayerNorm, self).__init__()self.a_2 = nn.Parameter(torch.ones(features))self.b_2 = nn.Parameter(torch.zeros(features))self.eps = epsdef forward(self, x):mean = x.mean(-1, keepdim=True)std = x.std(-1, keepdim=True)return self.a_2 * (x - mean) / (std + self.eps) + self.b_2
那么,我们试着构造一个 LayerNorm,来观察其参数:
>>> layerNorm = LayerNorm(5)>>> for a in layerNorm.parameters():print(a)Parameter containing:tensor([1., 1., 1., 1., 1.], requires_grad=True)Parameter containing:tensor([0., 0., 0., 0., 0.], requires_grad=True)
可以看到我们使用 **nn.Parameter** 进行构造的参数,自动传入了 **Module** 的参数列表。
