卷積神經網路入門 1 卷積型別

2021-10-22 10:22:42 字數 1117 閱讀 6550

一般kernel_size=3,padding取1,這樣feature map取決於stride

參數量:cincoutk*k

torch.nn.conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=true)

kernel_size=1,無法提取空間資訊,但可以實現全連線的功能

torch.nn.conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=true)

因顯示卡不夠用所以被建立,當然也有後續研究,維度從cin變為原來幾分之一,分組卷積後拼到一起

參數量:ci/2cout/2kk2+bias

torch.nn.conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=2,bias=true)

將輸入的feature map分組成cin個然後再合到一起,這樣cout=cin,但是由於 通道之間的資訊沒有開啟,因此通常接1*1卷積打通訊道

參數量:cinkk+bias

torch.nn.conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=ci,bias=true)

僅學習9個點,但是可以可以獲得更大的感受野,dilation表示每個點中間隔的點數

torch.nn.conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=2,groups=2,bias=true)

正常卷積把原圖變小,一般加padding保持圖不變,這種逆向操作會把圖變大,一般用作上取樣

torch.nn.convtranspose2d(in_channels,out_channels,kernel_size,stride=1,padding=0,output_padding,groups=1,bias=true,dilation=1)

參數量:cicoutk*k+bias

《1。卷積神經網路》

1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...

卷積神經網路學習1 卷積層

卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...

卷積神經網路 1 1 卷積核

卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...