caffe學習系列(4) 視覺層介紹

2021-09-25 11:16:04 字數 593 閱讀 5946

視覺層包括convolution, pooling, local response normalization (lrn), im2col等層。

這裡介紹下conv層。

layer 

param

convolution_param

bias_filler

}}

輸入:n*c0*w0*h0

輸出:n*c1*w1*h1

其中,c1就是引數中的num_output,生成的特徵圖個數

w1=(w0+2*pad-kernel_size)/stride+1;

h1=(h0+2*pad-kernel_size)/stride+1;

如果設定stride為1,前後兩次卷積部分存在重疊。如果設定pad=(kernel_size-1)/2,則運算後,寬度和高度不變。

更多參考:

介紹了convolution,pooling,lrn層的引數。

需要格外注意的是im2col層,以前在matlab中用過,沒明白是什麼,博主給的圖描述的很清晰了。

這張圖也揭示了多個特徵圖、多個卷積核時是如何運算的,一目了然。

caffe學習系列(3) 資料層介紹

乙個模型由多個層構成,如data,conv,pool等。其中資料層是模型的最底層,是模型的入口。提供資料的輸入,也提供資料從blobs轉換成別的格式進行儲存輸出還包括資料的預處理 如減去 均值,放大縮小,裁剪和映象等 資料來源來自高效的資料庫 如leveldb和lmdb 或者hdf5 檔案和格式檔案...

caffe學習系列 層解讀

層型別 accuracy layer 可以看到,caffe中計算accuracy時,是通過比較最後乙個全連線層 神經元個數 類別數 但沒有加入activation function 的輸出和資料集的labels來得到的,計算過程在accuracylayer中實現 我也一直非常困惑,計算accurac...

caffe層筆記系列Loss層

1.可選引數 1 ignore label int型變數,預設為空。如果指定值,則label等於ignore label的樣本將不參與loss計算,反向傳播時梯度直接置0。2 normalize bool型變數,即loss會除以參與計算的樣本總數,否則loss等於直接求和。3 normalizati...