關於tensor的shape和dimension

2021-09-23 14:36:04 字數 1031 閱讀 4685

剛把mnist又過了一遍,突然感覺對tensor的shape有了新的理解,雖然很基礎,還是想分享一下

關於tensor的維度,也就是階啦,從認知上理解,一維就是線(陣列或者向量),二維就是面(矩陣),三維就是體(資料體),四維是資料陣列 等等等等;新的理解是在表現方式上的,也就是列印出的樣子,例如:

[    [1,1,1] [1,1,1]    ]

顯然它是二維的,因為一看就是乙個矩陣,那如果 [ ] 多了又怎麼判斷呢,這是個取巧的辦法,看第乙個數字左邊有幾個 [就行了。

當然,還沒進入正題,兩個新的理解:

shape[2,3,4] 怎麼表示咩?

首先有乙個 [ ] (記為一號)闊住所有的量,(所有的tensor最外層都會有乙個[ ])

[    ]

第乙個引數「2」,表示一號 [ ] 中有2個大部分,(記為二號)

[[    ]    [    ]]

第二個引數「3」,表示每個二號 [ ] 中有3個小部分,(記為三號)

[[ ]        [ ]]

第三個引數「4」,表示每個三號 [ ] 中有4個資料

舉個例子吧

tensor = tf.constant(1,[2,3,4])

'''    

[ [ [1,1,1,1] [1,1,1,1] [1,1,1,1] ]

[ [1,1,1,1] [1,1,1,1] [1,1,1,1] ] ]

'''這樣應該就看的明白了

關於這個例子的思考(shape[2,3,4] 中引數2,3,4究竟表示的是什麼?)

第乙個引數「2」表示在第一維中有2個元素,也就是上面所說的2個二號 [ ] ,

第二個引數「3」表示第二維中有3個元素,也就是上面所說的3個三號 [ ] ,

第三個引數「4」自然也就是表示第三維中有4個元素的意思也就是上面說的每個三號 [ ] 中有4個資料

再總結一下,第n個引數就表示第n維中含有的元素

關於tensorflow卷積shape的詳細解析

1.幾維就有幾層括號 2.shape 5,2,3,4 代表的意思的意思是234大小的三維矩陣,深度為倆層,五個這樣的三維矩陣,在使用conv2d時,最後形成的矩陣按照這個shape規律形成,但是其shape對應位置的數字所代表的意義被重新賦予,在input中,第乙個位置表示幾個矩陣,第二位置表示矩陣...

Pytorch Tensor和tensor的區別

在pytorch中,tensor和tensor都能用於生成新的張量 a torch.tensor 1 2 a tensor 1 2.a torch.tensor 1 2 a tensor 1 2 首先,我們需要明確一下,torch.tensor 是python類,更明確地說,是預設張量型別torch...

Variable和tensor的計算

變數在torch中是建立乙個計算圖,但是相比較tensorflow和theano中的靜態圖,它是動態的,torch沒有placeholder,torch只能給計算圖傳遞變數 import numpy as np import torch from torch.autograd import vari...