相當于numpy中resize()的功能,但是用法可能不太一樣。
我的理解是:
把原先tensor中的數據按照行優(yōu)先的順序排成一個一維的數據(這里應該是因為要求地址是連續(xù)存儲的),然后按照參數組合成其他維度的tensor。
比如說是不管你原先的數據是[[[1,2,3],[4,5,6]]]還是[1,2,3,4,5,6],因為它們排成一維向量都是6個元素,所以只要view后面的參數一致,得到的結果都是一樣的。
比如,
a=torch.Tensor([[[1,2,3],[4,5,6]]])
b=torch.Tensor([1,2,3,4,5,6])
print(a.view(1,6))
print(b.view(1,6))
得到的結果都是
tensor([[1., 2., 3., 4., 5., 6.]])
再看一個例子:
a=torch.Tensor([[[1,2,3],[4,5,6]]])
print(a.view(3,2))
將會得到:
tensor([[1., 2.],
[3., 4.],
[5., 6.]])
相當于就是從1,2,3,4,5,6順序的拿數組來填充需要的形狀。但是如果您想得到如下的結果:
tensor([[1., 4.],
[2., 5.],
[3., 6.]])
就需要使用另一個函數了:permute()。用法參見我的另一篇博客:PyTorch中permute的用法
另外,參數不可為空。參數中的-1就代表這個位置由其他位置的數字來推斷,只要在不致歧義的情況的下,view參數就可以推斷出來,也就是人可以推斷出形狀的情況下,view函數也可以推斷出來。
比如a tensor的數據個數是6個,如果view(1,-1),我們就可以根據tensor的元素個數推斷出-1代表6。
而如果是view(-1,-1,2),人不知道怎么推斷,機器也不知道。
還有一種情況是人可以推斷出來,但是機器推斷不出來的:view(-1,-1,6),人可以知道-1都代表1,但是機器不允許同時有兩個負1。
如果沒有-1,那么所有參數的乘積就要和tensor中元素的總個數一致了,否則就會出現錯誤。
補充:pytorch中x.view()和permute用法
pytorch中x.view()用法
在pytorch中經常會看到x.view(),它表示將Tensor的維度轉變?yōu)関iew指定的維度,有點類似于resize函數
b=torch.Tensor([[[[1,2,3],[4,5,6],[7,8,9]],[[1,2,3],[4,5,6],[7,8,9]]]])
print(b.size())
(1, 2, 3, 3)
print(b.view(b.size(0),-1))
tensor([[1., 2., 3., 4., 5., 6., 7., 8., 9., 1., 2., 3., 4., 5., 6., 7., 8., 9.]])
print(b.view(b.size(0),-1).size())
(1, 18)
b.size(0)表示b中0維度==1,-1是按照原數據自動分配的列數。
a=torch.Tensor([[[1,2,3],[4,5,6]]])
print(a.size())
(1, 2, 3)
print(a.view(6,-1))
tensor([[1.],
[2.],
[3.],
[4.],
[5.],
[6.]])
print(a.view(6,-1).size())
(6, 1)
將a轉變成6行1列
print(a.view(-1,6).size())
(1, 6)
或者將a轉變成1行6列
在程序里還經常見到view函數后面跟著permute()函數,這個函數是做維度換位的
print(a.view(-1,6).permute(1,0))
tensor([[1.],
[2.],
[3.],
[4.],
[5.],
[6.]])
print(a.view(-1,6).permute(1,0).size())
(6, 1)
加了permute,a就由(1,6)變成(6,1)了。
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
您可能感興趣的文章:- Pytorch之view及view_as使用詳解
- pytorch中torch.max和Tensor.view函數用法詳解
- 對pytorch中x = x.view(x.size(0), -1) 的理解說明