参考来源:
CSDN:【Pytorch】对比 expand 和 repeat 函数
**expand()**
和 **repeat()**
函数是 pytorch
中常用于进行张量数据复制和维度扩展的函数,但其工作机制差别很大,本文对这两个函数进行对比。
1. expand()
tensor.expand(*sizes)
**expand()**
函数用于将张量中单数维的数据扩展到指定的 size
。
首先解释下什么叫单数维(singleton dimensions
),张量在某个维度上的 size
为 1
,则称为单数维。比如 **zeros(2,3,4)**
不存在单数维,而 **zeros(2,1,4)**
在第二个维度(即维度 1
)上为单数维。**expand()**
函数仅仅能作用于这些单数维的维度上。
参数 ***sizes**
用于逐个指定各个维度扩展后的大小(也可以理解为拓展的次数),对于不需要或者无法(即非单数维)进行扩展的维度,对应位置可写上原始维度大小或直接写作 **-1**
。**expand()**
函数可能导致原始张量的升维,其作用在张量前面的维度上,因此通过 **expand()**
函数可将张量数据复制多份(可理解为沿着第一个 **batch**
的维度上)。
另一个值得注意的点是:**expand()**
函数并不会重新分配内存,返回结果仅仅是原始张量上的一个视图。
import torch
a = torch.tensor([1, 0, 2])
b = a.expand(2, -1) # 第一个维度为升维,第二个维度保持原样
print('b:\n', b)
"""
b:
tensor([[1, 0, 2],
[1, 0, 2]])
"""
import torch
a = torch.tensor([[1], [0], [2]])
print('a.shape:', a.shape)
b = a.expand(-1, 2) # 保持第一个维度,第二个维度只有一个元素,可扩展
print('b:\n', b)
"""
a.shape: torch.Size([3, 1])
b:
tensor([[1, 1],
[0, 0],
[2, 2]])
"""
import torch
a = torch.tensor([[1], [0], [2]])
print('a.shape:', a.shape)
b = a.expand(2, -1) # 第一个维度有三个元素,不可扩展
print('b:\n', b)
"""
Traceback (most recent call last):
File "test.py", line 13, in <module>
b = a.expand(2, -1) # 保持第一个维度,第二个维度只有一个元素,可扩展
RuntimeError: The expanded size of the tensor (2) must match the existing size (3) at non-singleton dimension 0. Target sizes: [2, -1]. Tensor sizes: [3, 1]
Process finished with exit code 1
"""
2. expand_as()
expand_as()
函数可视为 expand()
的另一种表达,其 size
通过函数传递的目标张量的 size
来定义。
import torch
a = torch.tensor([1, 0, 2])
b = torch.zeros(2, 3)
c = a.expand_as(b) # a照着b的维度大小进行拓展
print('a.shape:', a.shape)
print('b.shape:', b.shape)
print('c:\n', c)
print('c.shape:', c.shape)
"""
a.shape: torch.Size([3])
b.shape: torch.Size([2, 3])
c:
tensor([[1, 0, 2],
[1, 0, 2]])
c.shape: torch.Size([2, 3])
"""
3. repeat()
前文提及 expand()
仅能作用于**单数维**
,那对于非单数维的拓展,那就需要借助于 repeat()
函数了。
tensor.repeat(*sizes)
参数 ***sizes**
指定了原始张量在各维度上复制的次数。整个原始张量作为一个整体进行复制,这与 Numpy
中的 **repeat()**
函数截然不同,而更接近于 tile()
函数的效果。
与**expand()**
不同,**repeat()**
函数会真正的复制数据并存放于内存中。
下面是一个简单的例子:
import torch
a = torch.tensor([1, 0, 2])
b = a.repeat(3, 2) # 在轴0上复制3份,在轴1上复制2份
print('b:\n', b)
"""
b:
tensor([[1, 0, 2, 1, 0, 2],
[1, 0, 2, 1, 0, 2],
[1, 0, 2, 1, 0, 2]])
"""
4. repeat_intertile()
Pytorch 中,与 **Numpy**
的 **repeat()**
函数相类似的函数为 **torch.repeat_interleave()**
:
torch.repeat_interleave(input, repeats, dim=None)
参数 **input**
为原始张量,**repeats**
为指定轴上的复制次数,而 **dim**
为复制的操作轴,若取值为 **None**
则默认将所有元素进行复制,并会返回一个 flatten(压平)
之后的一维张量。
与 **repeat()**
将整个原始张量作为整体不同,**repeat_interleave()**
操作是逐元素的。
下面是一个简单的例子:
import torch
a = torch.tensor([[1], [0], [2]])
b = torch.repeat_interleave(a, repeats=3) # 结果flatten
print('b:\n', b)
"""
b:
tensor([1, 1, 1, 0, 0, 0, 2, 2, 2])
"""
import torch
a = torch.tensor([[1], [0], [2]])
c = torch.repeat_interleave(a, repeats=3, dim=1) # 沿着axis=1逐元素复制
print('c:\n', c)
"""
c:
tensor([[1, 1, 1],
[0, 0, 0],
[2, 2, 2]])
"""