caffe學習筆記2 資料層及其引數

2021-08-02 08:39:25 字數 3284 閱讀 3803

本文主要參考:

加入了一些自己的理解

在介紹之前,我們先來簡單地介紹下caffe:

caffe(convolutional architecture for fast feature embedding快速特徵植入的卷積結構)是由伯克利視覺和學習中心(bvlc)開發的基於c++/cuda/python實現的卷積神經網路框架,提供面向命令列、matlab、python的繫結介面

從caffe的全稱可以了解:

它實現了前饋卷積神經網路架構(cnn),而不是遞迴網路架構(rnn)

它速度快,因為利用了mkl、openblas、cublas等計算庫,支援gpu加速

它適合做特徵提取,實際上適合做二維影象資料的特徵提取

除此之外,caffe還具有以下特性:

caffe完全開源

caffe提供了一整套工具集,可用於模型訓練、**、微調、發布、資料預處理、以及良好的自動測試

caffe帶有一系列參考模型和快速上手例程

caffe有比較活躍的社群,有很多衍生專案

要執行caffe,需要先建立乙個模型(model),如比較常用的lenet,alex等, 而乙個模型由多個屋(layer)構成,每一層又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案(prototxt)的編寫。

層有很多種型別,比如data,convolution,pooling等,層之間的資料流動是以blobs的方式進行。

今天我們就先介紹一下資料層.

資料層是每個模型的最底層,是模型的入口,不僅提供資料的輸入,也提供資料從blobs轉換成別的格式進行儲存輸出。通常資料的預處理(如減去均值, 放大縮小, 裁剪和映象等),也在這一層設定引數實現。

所有的資料層的都具有的公用引數:先看示例

layer

transform_param

data_param

}

name: 表示該層的名稱,可隨意取

type: 層型別,如果是data,表示資料**於leveldb或lmdb。根據資料的**不同,資料層的型別也不同(後面會詳細闡述)。一般在練習的時候,我們都是採 用的leveldb或lmdb資料,因此層型別設定為data。

top或bottom: 每一層用bottom來輸入資料,用top來輸出資料。如果只有top沒有bottom,則此層只有輸出,沒有輸入。反之亦然。如果有多個 top或多個bottom,表示有多個blobs資料的輸入和輸出

data 與 label: 在資料層中,至少有乙個命名為data的top。如果有第二個top,一般命名為label。 這種(data,label)配對是分類模型所必需的。

include: 一般訓練的時候和測試的時候,模型的層是不一樣的。該層(layer)是屬於訓練階段的層,還是屬於測試階段的層,需要用include來指定。如果沒有include引數,則表示該層既在訓練模型中,又在測試模型中。

transformations: 資料的預處理,可以將資料變換到定義的範圍內。如設定scale為0.00390625,實際上就是1/255, 即將輸入資料由0-255歸一化到0-1之間

其它的資料預處理也在這個地方設定:

transform_param
後面的data_param部分,就是根據資料的**不同,來進行不同的設定。

1、資料來自於資料庫(如leveldb和lmdb)

層型別(layer type):data

必須設定的引數:

source:包含資料庫的目錄名稱,如examples/mnist/mnist_train_lmdb

batch_size:每次處理的資料個數,如64

可選的引數:

rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的sgd很有用。

backend:選擇是採用leveldb還是lmdb, 預設是leveldb.

示例:

layer

transform_param

data_param

}

2、資料來自於記憶體

層型別:memorydata

必須設定的引數:

batch_size:每一次處理的資料個數,比如2

channels:通道數

height:高度

width:寬度

示例:

layer

transform_param

}

3、資料來自於hdf5

層型別:hdf5data

必須設定的引數:

source:讀取的檔名稱

batch_size:每一次處理的資料個數

示例:

layer

}

4、資料來自於

層型別:imagedata

必須設定的引數:

batch_size: 每一次處理的資料個數,即數

可選引數:

rand_skip: 在開始的時候,路過某個資料的輸入。通常對非同步的sgd很有用。

shuffle: 隨機打亂順序,預設值為false

new_height,new_width: 如果設定,則將進行resize

示例:

layer

image_data_param

}

5、資料**於windows

層型別:windowdata

必須設定的引數:

source:乙個文字檔案的名字

batch_size:每一次處理的資料個數,即數

示例:

layer

transform_param

window_data_param

}

caffe學習筆記(1) 資料層定義

要執行caffe,需要mode train val.prototxt 和solver solver.prototxt 組成。model由多個layer構成,每一layer有許多引數,所有的引數都定義在caffe.proto這個檔案中。層有很多種型別,比如data,convolution,poolin...

caffe 學習系列啟用層及其引數

在啟用層中,對輸入資料進行啟用操作 實際上就是一種函式變換 是逐元素進行運算的。從bottom得到乙個blob資料輸入,運算後,從top輸出乙個blob資料。在運算過程中,沒有改變資料的大小,即輸入和輸出的資料大小是相等的。輸入 n c h w 輸出 n c h w 常用的啟用函式有sigmoid,...

Caffe學習系列 2 資料層及引數

要執行caffe,需要先建立乙個模型 model 如比較常用的lenet,alex等,而乙個模型由多個屋 layer 構成,每一屋又由許多引數組成。所有的引數都定義在caffe.proto這個檔案中。要熟練使用caffe,最重要的就是學會配置檔案 prototxt 的編寫。層有很多種型別,比如dat...