参考来源:
博客园:PyTorch笔记之 scatter() 函数
Pytorch 文档:https://pytorch.org/docs/stable/generated/torch.Tensor.scatter_.html
CSDN:pytorch之torch.gather方法
Pytorch 文档:https://pytorch.org/docs/stable/generated/torch.gather.html
scatter()
和 gather()
函数是互为反操作。
torch.tensor.scatter() 和 torch.tensor.scatter_() 函数
**scatter()**
和 **scatter_()**
的作用是一样的,只不过 scatter()
不会直接修改原来的 Tensor
,而 scatter_()
会。
PyTorch 中,一般函数加下划线代表直接在原来的 Tensor 上修改。
**Tensor.scatter_(dim, index, src, reduce=None) → Tensor**
的主要参数有 3 个:
**dim**
:沿着哪个维度进行索引。**index**
:用来scatter
的元素索引。**src**
:用来scatter
的源元素,可以是一个标量或一个张量。reduce
:要应用的归约运算,可以是'add'
(加)或'multiply'
(乘)。( reduction operation to apply, can be either ‘add’ or ‘multiply’.)这个
scatter
可以理解成放置元素或者修改元素。
简单说就是通过一个张量 src
来修改另一个张量 x
,哪个元素需要修改、用 **src**
中的哪个元素来修改,由 **dim**
和 **index**
决定。
官方文档给出了 3 维张量 的具体操作说明,如下所示(**reduce = None**
):
self[index[i][j][k]][j][k] = src[i][j][k] # if dim == 0
self[i][index[i][j][k]][k] = src[i][j][k] # if dim == 1
self[i][j][index[i][j][k]] = src[i][j][k] # if dim == 2
reduce = 'add'
self[index[i][j][k]][j][k] += src[i][j][k] # if dim == 0
self[i][index[i][j][k]][k] += src[i][j][k] # if dim == 1
self[i][j][index[i][j][k]] += src[i][j][k] # if dim == 2
reduce = 'multiply'
self[index[i][j][k]][j][k] *= src[i][j][k] # if dim == 0
self[i][index[i][j][k]][k] *= src[i][j][k] # if dim == 1
self[i][j][index[i][j][k]] *= src[i][j][k] # if dim == 2
例子:
import torch
src = torch.rand(2, 5)
index = torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]])
dim = 0
x = torch.zeros(3, 5)
y = x.scatter(dim, index, src)
print('dim:\t', dim)
print('index:\n', index)
print('src:\n', src)
print('x:\n', x)
print("'x.scatter(dim, index, src)':\n", y)
结果:
dim: 0
index:
tensor([[0, 1, 2, 0, 0],
[2, 0, 0, 1, 2]])
src:
tensor([[0.4963, 0.7682, 0.0885, 0.1320, 0.3074],
[0.6341, 0.4901, 0.8964, 0.4556, 0.6323]])
x:
tensor([[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.]])
'x.scatter_(dim, index, src)':
tensor([[0.4963, 0.4901, 0.8964, 0.1320, 0.3074],
[0.0000, 0.7682, 0.0000, 0.4556, 0.0000],
[0.6341, 0.0000, 0.0885, 0.0000, 0.6323]])
具体地说,我们的 index
是 torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]])
,一个二维张量,下面用图简单说明 **self[index[i][j]][j]=src[i][j]**
:
我们是 2维 张量,一开始进行 self[index[0][0]][0]
,其中 index[0][0]
的值是0,所以执行 self[0][0]=src[0][0]=0.1940
。
再比如 self[index[1][0]][0]
,其中 index[1][0]
的值是2,所以执行 self[2][0] = src[1][0] = 0.2078
。
**src**
除了可以是张量外,也可以是一个标量。
例子:
import torch
src = 7
index = torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]])
dim = 0
x = torch.zeros(3, 5)
y = x.scatter(dim, index, src)
print('dim:\t', dim)
print('index:\n', index)
print('src:\t', src)
print('x:\n', x)
print("'x.scatter(dim, index, src)':\n", y)
结果:
dim: 0
index:
tensor([[0, 1, 2, 0, 0],
[2, 0, 0, 1, 2]])
src: 7
x:
tensor([[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.]])
'x.scatter_(dim, index, src)':
tensor([[7., 7., 7., 7., 7.],
[0., 7., 0., 7., 0.],
[7., 0., 7., 0., 7.]])
scatter()
一般可以用来对标签进行 one-hot 编码,这就是一个典型的用标量来修改张量的一个例子。
例子:
import torch
class_num = 10
batch_size = 4
label = torch.LongTensor(batch_size, 1).random_() % class_num
y = torch.zeros(batch_size, class_num).scatter(1, label, 1)
print('label:\n', label)
print("'torch.zeros(batch_size, class_num).scatter(1, label, 1)':\n", y)
结果:
label:
tensor([[5],
[0],
[9],
[7]])
'torch.zeros(batch_size, class_num).scatter(1, label, 1)':
tensor([[0., 0., 0., 0., 0., 1., 0., 0., 0., 0.],
[1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0., 0., 0., 0., 0., 1.],
[0., 0., 0., 0., 0., 0., 0., 1., 0., 0.]])
torch.gather() 函数
首先,先给出 torch.gather
函数的函数定义:
**torch.gather(input, dim, index, out=None) → Tensor**
官方给出的解释是这样的: 沿给定轴 dim
,将输入索引张量 index
指定位置的值进行聚合。
官方文档给出了 3 维张量 的具体操作说明,如下所示:
out[i][j][k] = tensor[index[i][j][k]][j][k] # dim=0
out[i][j][k] = tensor[i][index[i][j][k]][k] # dim=1
out[i][j][k] = tensor[i][j][index[i][j][k]] # dim=3
!!!特别注意一下,**index**
的类型必须是 **LongTensor**
类型的。
刚开始看上去有点难以理解,但经过研究之后发现原来这个想表述的很简单,先给出几个代码例子让大家自行体会一下。
import torch
a = torch.Tensor([[1, 2], [3, 4]])
index = torch.LongTensor([[0, 0], [1, 0]])
b = torch.gather(input=a, dim=1, index=index)
print('a:\n', a)
print('index:\n', index)
print("'torch.gather(input=a, dim=1, index=index)':\n", b)
"""output:
a:
tensor([[1., 2.],
[3., 4.]])
index:
tensor([[0, 0],
[1, 0]])
'torch.gather(input=a, dim=1, index=index)':
tensor([[1., 1.],
[4., 3.]])
"""
import torch
a = torch.Tensor([[1, 2], [3, 4]])
index = torch.LongTensor([[1, 0], [1, 0]])
b = torch.gather(input=a, dim=1, index=index)
print('a:\n', a)
print('index:\n', index)
print("'torch.gather(input=a, dim=1, index=index)':\n", b)
"""output:
a:
tensor([[1., 2.],
[3., 4.]])
index:
tensor([[1, 0],
[1, 0]])
'torch.gather(input=a, dim=1, index=index)':
tensor([[2., 1.],
[4., 3.]])
"""
import torch
a = torch.Tensor([[1, 2], [3, 4]])
index = torch.LongTensor([[1, 1], [1, 0]])
b = torch.gather(input=a, dim=1, index=index)
print('a:\n', a)
print('index:\n', index)
print("'torch.gather(input=a, dim=1, index=index)':\n", b)
"""output:
a:
tensor([[1., 2.],
[3., 4.]])
index:
tensor([[1, 1],
[1, 0]])
'torch.gather(input=a, dim=1, index=index)':
tensor([[2., 2.],
[4., 3.]])
"""
很容易就会发现 **torch.gather(input, dim, index, out=None)**
中的 dim 表示的就是第几维度,在这个二维例子中,如果 **dim=0**
,那么它表示的就是你接下来的操作是对于第一维度进行的,也就是行;如果 **dim=1**
,那么它表示的就是你接下来的操作是对于第二维度进行的,也就是列。**index**
的大小和 **input**
的大小是一样的,他表示的是你所选择的维度上的操作,比如这个例子中
a = torch.Tensor([[1,2],[3,4]])
、b = torch.gather(a,1,torch.LongTensor([[0,0],[1,0]]))
,其中, dim=1
,表示的是在第二维度上操作。index = torch.LongTensor([[0,0],[1,0]])
,[0,0]
就是第一行对应元素的下标,也就是对应的是[1,1]
; [1,0]
就是第二行对应元素的下标,也就是对应的是 [4,3]
。