caffe slover檔案詳解

2022-05-07 02:30:11 字數 3184 閱讀 7534

solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程式執行必帶的乙個引數就是solver配置檔案。執行**一般為

# caffe train --solver=*_slover.prototxt
在deep learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替呼叫前向(forward)演算法和後向(backward)演算法來更新引數,從而最小化loss,實際上就是一種迭代的優化演算法。

到目前的版本,caffe提供了六種優化演算法來求解最優引數,在solver配置檔案中,通過設定type型別來選擇。

solver的流程:

1.     設計好需要優化的物件,以及用於學習的訓練網路和用於評估的測試網路。(通過呼叫另外乙個配置檔案prototxt來進行)

2.     通過forward和backward迭代的進行優化來跟新引數。

3.     定期的評價測試網路。 (可設定多少次訓練後,進行一次測試)

4.     在優化過程中顯示模型和solver的狀態

在每一次的迭代過程中,solver做了這幾步工作:

1、呼叫forward演算法來計算最終的輸出值,以及對應的loss

2、呼叫backward演算法來計算每層的梯度

3、根據選用的slover方法,利用梯度進行引數更新

4、記錄並儲存每次迭代的學習率、快照,以及對應的狀態。

接下來,我們先來看乙個例項:

net: "examples/mnist/lenet_train_test.prototxt"

test_iter: 100

test_interval: 500

base_lr: 0.01

momentum: 0.9

type: sgd

weight_decay: 0.0005

lr_policy: "inv"

gamma: 0.0001

power: 0.75

display: 100

max_iter: 20000

snapshot: 5000

snapshot_prefix: "examples/mnist/lenet"

solver_mode: cpu

接下來,我們對每一行進行詳細解譯:

net: "examples/mnist/lenet_train_test.prototxt"
設定深度網路模型。每乙個模型就是乙個net,需要在乙個專門的配置檔案中對net進行配置,每個net由許多的layer所組成。每乙個layer的具體配置方式可參考本系列文文章中的(2)-(5)。注意的是:檔案的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

也可用train_net和test_net來對訓練模型和測試模型分別設定。例如:

train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"

test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"

接下來第二行:

test_iter: 100
這個要與test layer中的batch_size結合起來理解。mnist資料中測試樣本總數為10000,一次性執行全部資料效率很低,因此我們將測試資料分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設定batch_size為100,則需要迭代100次才能將10000個資料全部執行完。因此test_iter設定為100。執行完一次全部資料,稱之為乙個epoch

test_interval: 500
測試間隔。也就是每訓練500次,才進行一次測試。

base_lr: 0.01
lr_policy: "inv"
gamma: 0.0001
power: 0.75
這四行可以放在一起理解,用於學習率的設定。只要是梯度下降法來求解優化,都會有乙個學習率,也叫步長。base_lr用於設定基礎學習率,在迭代的過程中,可以對基礎學習率進行調整。怎麼樣進行調整,就是調整的策略,由lr_policy來設定。

lr_policy可以設定為下面這些值,相應的學習率的計算為:

multistep示例:

base_lr: 0.01

momentum: 0.9

weight_decay: 0.0005

# the learning rate policy

lr_policy: "multistep"

gamma: 0.9

stepvalue: 5000

stepvalue: 7000

stepvalue: 8000

stepvalue: 9000

stepvalue: 9500

接下來的引數:

momentum :0.9

type: sgd
優化演算法選擇。這一行可以省掉,因為預設值就是sgd。總共有六種方法可選擇,在本文的開頭已介紹。

weight_decay: 0.0005
權重衰減項,防止過擬合的乙個引數。

display: 100
每訓練100次,在螢幕上顯示一次。如果設定為0,則不顯示。

max_iter: 20000
最大迭代次數。這個數設定太小,會導致沒有收斂,精確度很低。設定太大,會導致**,浪費時間。

snapshot: 5000

snapshot_prefix: "examples/mnist/lenet"

快照。將訓練出來的model和solver狀態進行儲存,snapshot用於設定訓練多少次後進行儲存,預設為0,不儲存。snapshot_prefix設定儲存路徑。

還可以設定snapshot_diff,是否儲存梯度值,預設為false,不儲存。

也可以設定snapshot_format,儲存的型別。有兩種選擇:hdf5 和binaryproto ,預設為binaryproto

solver_mode: cpu
設定執行模式。預設為gpu,如果你沒有gpu,則需要改成cpu,否則會出錯。

注意:以上的所有引數都是可選引數,都有預設值。根據solver方法(type)的不同,還有一些其它的引數,在此不一一枚舉。

mysql檔案詳解 MySQL日誌檔案詳解

概述 日誌檔案是mysql資料庫的重要組成部分。mysql有幾種不同的日誌檔案,通常包括錯誤日誌檔案,二進位制日誌,通用日誌,慢查詢日誌,等等。這些日誌可以幫助我們定位mysqld內部發生的事件,資料庫效能故障,記錄資料的變更歷史,使用者恢復資料庫等等。本文主要描述mysql的各種日誌檔案。1.錯誤...

WINCE SOURCES檔案詳解

sources檔案是wince底層開發中最重要的檔案之一,主要的配置項如下 targetname,定義模組名稱.targettype,模組的種類,可以是dynlink,library,exe.如果targettype是dll,則可以定義dllentry,將dll入口定義成別的不是dllmain的函式...

u boot lds檔案詳解

源文來自http blog.csdn.net dongliqiang2006 archive 2009 12 01 4915836.aspx 對於.lds檔案,決定乙個可執行程式的各個段的儲存位置,以及入口位址,這也是鏈結定位的作用。這裡以u boot的lds為例說明uboot的鏈結過程。首先看一下...