MSSD模型訓練config檔案引數配置解讀

2022-07-07 06:03:13 字數 566 閱讀 7676

這與我訓練中使用的ssd_mobilenet_v2_coco.config檔案基本類似。

下面簡單補充幾點:

1,anchor_generator引數的配置。

其中預設引數如下:

min_scale: 0.2  

max_scale: 0.95

修改建議:對訓練集中的box寬度進行統計,進行相應修改。

2, post_processing 

該部分引數也可以根據需要調整。

batch_non_max_suppression 

score_converter: sigmoid   # 檢測分數的轉換器型別選擇

3,train_config: 最重要的修改部分:訓練引數

}momentum_optimizer_value: 0.9   # 衝量  在學習率比較小時,較大的衝量(衝量不超過1)可以加速收斂。

decay: 0.9

epsilon: 1.0}}

4,fine_tune_checkpoint

設定預訓練模型的路徑,用於精調,並非用於0步訓練時使用。

待補充ing

訓練模型積累

1 學習率 base lr 如果學習率較小,訓練會變得更加可靠,但是優化會耗費較長的時間,因為朝向損失函式最小值的每個步長很小。如果學習率較大,訓練可能根本不會收斂,甚至會發散。權重的改變量可能非常大,使得優化越過最小值,使得損失函式變得更糟。備註 訣竅就是從乙個低學習率開始訓練網路,並在每個批次中...

語言模型訓練

模型訓練 nohup ngram count text tieba.word.merged order 4 vocab words.txt kndiscount interpolate lm tieba.word.4gram.lm 結果測試 ngram lm tieba.word.4gram.lm ...

預訓練模型

elmo elmo是一種是基於特徵的語言模型,用預訓練好的語言模型,生成更好的特徵。而elmo的主要做法是先訓練乙個完整的語言模型,再用這個語言模型去處理需要訓練的文字,生成相應的詞向量。文字分類實戰 九 elmo 預訓練模型 在nlp領域,使用預訓練模型或元件的監督學習任務被稱為下游任務 bert...