深度學習框架caffe訓練過程

2021-07-30 11:39:29 字數 1689 閱讀 3282

1. 資料準備

2. 生成訓練資料和測試資料的label,**生成

3. 生成訓練資料和測試資料對應的lmdb:

./build/tools/convert_imageset --shuffle=true --backend="lmdb" ./data/cigarettetrain20170413/ ./data/cigarettetrain20170413/train.txt ./data/cigarettetrain20170413/train_lmdb

./build/tools/convert_imageset --shuffle=true --backend="lmdb" ./data/cigarettetrain20170413/ ./data/cigarettetrain20170413/val.txt ./data/cigarettetrain20170413/val_lmdb

./build/tools/convert_imageset --shuffle=true --backend="lmdb" ./data/cigarettetrain20170413/ ./data/cigarettetrain20170413/test.txt ./data/cigarettetrain20170413/test_lmdb

4. 生成影象均值

./build/tools/compute_image_mean --backend="lmdb" ./data/cigarettetrain20170413/train_lmdb ./data/cigarettetrain20170413/train_lmdb/0327_train-mean.binaryproto

./build/tools/compute_image_mean --backend="lmdb" ./data/cigarettetrain20170413/val_lmdb ./data/cigarettetrain20170413/val_lmdb/0327_val-mean.binaryproto

./build/tools/compute_image_mean --backend="lmdb" ./data/cigarettetrain20170413/test_lmdb ./data/cigarettetrain20170413/test_lmdb/0327_test-mean.binaryproto

5. 配置訓練網路

solver_finetune.prototxt

train_val_finetune.prototxt

6. 訓練

./build/tools/caffe train -gpu all --solver=./data/cigarettetrain20170413/solver_finetune.prototxt  --weights=./data/cigarette_image_0327/bvlc_reference_caffenet.caffemodel   >train_cigarette_0413.log 2>&1

7. **gpu使用情況

watch -n 1 -d nvidia-smi

8. 測試

./build/tools/caffe test -gpu all -model ./data/cigarettetrain20170413/test.prototxt -weights ./data/cigarettetrain20170413/caffenet_finetune_iter_20000.caffemodel -iterations 1000

Caffe訓練過程

1.caffe入門學習 筆記 1 直接訓練法 usr bin env sh tools cafferead build tools tools caffe train solver gender solver.prorotxt gpu all 加入 gpu 選項 gpu 可以選擇gpu的id號,如果...

的訓練過程 高階 深度學習訓練過程視覺化

給機器學習演算法與python學習加星標,提公升ai技能 編輯丨極市平台 機器學習實驗室 datawhale 深度學習訓練過程一直處於黑匣子狀態,有很多同學問我具體怎麼解釋?其實很多還是無法可解釋,但是通過視覺化,具體可以知道深度學習在訓練過程到底學習了哪些特徵?到底對該目標的哪些特徵感興趣?這些我...

訓練過程 GPU訓練

為什麼y2b的8m,8張普通tt為啥要跑幾個月?因為gpu其實有60 的時間都是在等待資料填充完成,簡直蠢。1 換個固態硬碟試試?沒用。問題出在系統匯流排上,一幀的資料量入視訊記憶體後有1.58g 當前最優的分布式訓練方式是通過引數伺服器 parameter server 執行的同步隨機梯度下降演算...