Pytorch 卷積尺寸計算

2022-02-07 06:48:45 字數 2526 閱讀 2444

公式來自官方文件,戳->(conv3d — pytorch master documentation)

本文僅作記錄,順便練習latex語法

\(h_=\frac+2\times padding[0]-dilation[0]\times(kernel\_size[0]-1)-1}+1\)

\(w_=\frac+2\times padding[1]-dilation[1]\times(kernel\_size[1]-1)-1}+1\)

如果預設dilation=1的話:

\(h_=\frac+2\times padding[0]-kernel\_size[0]}+1\)

\(w_=\frac+2\times padding[1]-kernel\_size[1]}+1\)

如果預設dilation=1, stride=1的話:

\(h_=h_+2\times padding[0]-kernel\_size[0]+1\)

\(w_=w_+2\times padding[1]-kernel\_size[1]+1\)

如果預設dilation=1, stride=1, padding=0的話:

\(h_=h_-kernel\_size[0]+1\)

\(w_=w_-kernel\_size[1]+1\)

如果預設dilation=1, padding=0的話:

\(h_=\frac-kernel\_size[0]}+1\)

\(w_=\frac-kernel\_size[1]}+1\)

\(d_=\frac+2\times padding[0]-dilation[0]\times(kernel\_size[0]-1)-1}+1\)

\(h_=\frac+2\times padding[1]-dilation[1]\times(kernel\_size[1]-1)-1}+1\)

\(w_=\frac+2\times padding[2]-dilation[2]\times(kernel\_size[2]-1)-1}+1\)

如果預設dilation=1的話:

\(d_=\frac+2\times padding[0]-kernel\_size[0]}+1\)

\(h_=\frac+2\times padding[1]-kernel\_size[1]}+1\)

\(w_=\frac+2\times padding[2]-kernel\_size[2]}+1\)

如果預設dilation=1, stride=1的話:

\(d_=d_+2\times padding[0]-kernel\_size[0]+1\)

\(h_=h_+2\times padding[1]-kernel\_size[1]+1\)

\(w_=w_+2\times padding[2]-kernel\_size[2]+1\)

如果預設dilation=1, stride=1, padding=0的話:

\(d_=d_-kernel\_size[0]+1\)

\(h_=h_-kernel\_size[1]+1\)

\(w_=w_-kernel\_size[2]+1\)

如果預設dilation=1, padding=0的話:

\(d_=\frac-kernel\_size[0]}+1\)

\(h_=\frac-kernel\_size[1]}+1\)

\(w_=\frac-kernel\_size[2]}+1\)

parameters

in_channels (int) – number of channels in the input image

out_channels (int) – number of channels produced by the convolution

kernel_size (int or tuple) – size of the convolving kernel

stride (int or tuple, optional) – stride of the convolution. default: 1

padding (int or tuple, optional) – zero-padding added to both sides of the input. default: 0

padding_mode (string, optional) – 'zeros', 'reflect', 'replicate' or 'circular'. default: 'zeros'

dilation (int or tuple, optional) – spacing between kernel elements. default: 1

groups (int, optional) – number of blocked connections from input channels to output channels. default: 1

bias (bool, optional) – if true, adds a learnable bias to the output. default: true

感受野計算 卷積 池化輸出尺寸計算 卷積引數量計算

目錄 1 卷積後輸出尺寸的大小 1.1卷積引數量計算 2 池化後輸出尺寸大小 3 感受野的計算 鑑於網上資源比較混亂,而且筆試考的多,故作此總結。希望能幫到大家。輸入 l l d 卷積核 大小size f f d,滑動步長stride s,0填充 0 padding p 輸出 l l d 則輸出尺寸...

卷積神經網路引數計算及卷積層輸出尺寸計算

一 卷積神經網路引數計算 cnn乙個牛逼的地方就在於通過感受野和權值共享減少了神經網路需要訓練的引數的個數,所謂權值共享就是同乙個feature map中神經元權值共享,該feature map中的所有神經元使用同乙個權值。因此引數個數與神經元的個數無關,只與卷積核的大小及feature map的個...

卷積之後尺寸變化

卷積尺度變化 輸入矩陣格式 樣本數目,影象高度,影象寬度,影象通道數 卷積之後矩陣格式 樣本數目,影象高度,影象寬度,影象通道數 後三個維度在卷積之後會發生變化 權重矩陣 卷積核的格式 卷積核高度,卷積核寬度,輸入通道數,輸出通道數 以rgb為例,每個通道對應自己的乙個權重矩陣 輸出通道數 卷積核的...