Caffe訓練過程

2021-10-24 16:58:46 字數 850 閱讀 2656

1.caffe入門學習

筆記:

1、直接訓練法

#!/usr/bin/env sh

tools=

../cafferead/build/tools

$tools/caffe train --solver=gender_solver.prorotxt -gpu all #加入 -gpu 選項

-gpu 可以選擇gpu的id號,如果是 -gpu all表示啟用所有的gpu進行訓練。

2、採用funing-tuning 訓練法

$tools/caffe train --solver=gender_solver.prorotxt -weights gender_net.caffemodel #加入-weights
使用現有模型存檔對網路進行fine_tune的時候,由於改變了輸出的number,最後一層必須重新命名,目的是不復用最後一層的存檔引數。和tensorflow不太一樣的時候,如果最後一層的引數數量不一致,訓練時不會丟擲異常,居然可以正常執行,然後。。。收斂只是夢一場。例:

$ /usr/bin/caffe train  

-solver=./solver.prototxt

-weights=./snaps/******conv1012_iter_10000.caffemodel

2>

&1 |

tee ./snaps/finetunev1_log.txt

2>&1 |tee ./snaps/finetunev1_log.txt 將終端的log輸出到txt

深度學習框架caffe訓練過程

1.資料準備 2.生成訓練資料和測試資料的label,生成 3.生成訓練資料和測試資料對應的lmdb build tools convert imageset shuffle true backend lmdb data cigarettetrain20170413 data cigarettetr...

訓練過程 GPU訓練

為什麼y2b的8m,8張普通tt為啥要跑幾個月?因為gpu其實有60 的時間都是在等待資料填充完成,簡直蠢。1 換個固態硬碟試試?沒用。問題出在系統匯流排上,一幀的資料量入視訊記憶體後有1.58g 當前最優的分布式訓練方式是通過引數伺服器 parameter server 執行的同步隨機梯度下降演算...

caffe訓練過程中,訓練中斷之後,如何接著訓練?

zxw.sh home tyn downloads center loss caffe build tools caffe train solver face solver.prototxt snapshot center loss model iter 9000.solverstate gpu a...