pytorch調整訓練學習率方法

2021-10-01 05:26:57 字數 3801 閱讀 9182

pytorch學習率調整策略通過torch.optim.lr_scheduler介面實現。pytorch提供的學習率調整策略分為三大類,分別是

a. 有序調整:等間隔調整(step),按需調整學習率(multistep),指數衰減調整(exponential)和 余弦退火cosineannealing。

b. 自適應調整:自適應調整學習率 reducelronplateau。

c. 自定義調整:自定義調整學習率 lambdalr。

1、等間隔調整學習率 steplr

等間隔調整學習率,調整倍數為 gamma 倍,調整間隔為 step_size。間隔單位是step。需要注意的是, step 通常是指 epoch,不要弄成 iteration 了。

torch.optim.lr_scheduler.steplr(optimizer, step_size, gamma=

0.1, last_epoch=-1

)'''

step_size(int)- 學習率下降間隔數,若為 30,則會在 30、 60、 90…個 step 時,將學習率調整為 lr*gamma。

gamma(float)- 學習率調整倍數,預設為 0.1 倍,即下降 10 倍。

last_epoch(int)- 上乙個 epoch 數,這個變數用來指示學習率是否需要調整。當last_epoch 符合設定的間隔時,就會對學習率進行調整。當為-1 時,學習率設定為初始值。

'''

2 、按需調整學習率 multisteplr

按設定的間隔調整學習率。這個方法適合後期除錯使用,觀察 loss 曲線,為每個實驗定製學習率調整時機。

torch.optim.lr_scheduler.multisteplr(optimizer, milestones, gamma=

0.1, last_epoch=-1

)'''

milestones(list)- 乙個 list,每乙個元素代表何時調整學習率, list 元素必須是遞增的。如 milestones=[30,80,120]

gamma(float)- 學習率調整倍數,預設為 0.1 倍,即下降 10 倍。

3、 指數衰減調整學習率 exponentiallr

按指數衰減調整學習率,調整公式: lr=lr∗gamma∗∗epoch lr = lr * gamma**epoch

torch.optim.lr_scheduler.exponentiallr(optimizer, gamma, last_epoch=-1

)'''

gamma- 學習率調整倍數的底,指數為 epoch,即 gamma**epoch

'''

4 、余弦退火調整學習率 cosineannealinglr

以余弦函式為週期,並在每個週期最大值時重新設定學習率。以初始學習率為最大學習率,以 2∗t_max 為週期,在乙個週期內先下降,後上公升。

torch.optim.lr_scheduler.cosineannealinglr(optimizer, t_max, eta_min=

0, last_epoch=-1

)'''

t_max(int)- 一次學習率週期的迭代次數,即 t_max 個 epoch 之後重新設定學習率。

eta_min(float)- 最小學習率,即在乙個週期中,學習率最小會下降到 eta_min,預設值為 0。

'''

5 、自適應調整學習率 reducelronplateau

當某指標不再變化(下降或公升高),調整學習率,這是非常實用的學習率調整策略。

例如,當驗證集的 loss 不再下降時,進行學習率調整;或者監測驗證集的 accuracy,當accuracy 不再上公升時,則調整學習率。

torch.optim.lr_scheduler.reducelronplateau(optimizer, mode=

'min'

, factor=

0.1, patience=

10,

verbose=

false

, threshold=

0.0001

, threshold_mode=

'rel'

, cooldown=

0, min_lr=

0, eps=1e-

08)'''

mode(str)- 模式選擇,有 min 和 max 兩種模式, min 表示當指標不再降低(如監測loss), max 表示當指標不再公升高(如監測 accuracy)。

factor(float)- 學習率調整倍數(等同於其它方法的 gamma),即學習率更新為 lr = lr * factor

patience(int)- 忍受該指標多少個 step 不變化,當忍無可忍時,調整學習率。

verbose(bool)- 是否列印學習率資訊, print(『epoch : reducing learning rate of group {} to .』.format(epoch, i, new_lr))

threshold_mode(str)- 選擇判斷指標是否達最優的模式,有兩種模式, rel 和 abs。

當 threshold_mode == rel,並且 mode == max 時, dynamic_threshold = best * ( 1 +threshold );

當 threshold_mode == rel,並且 mode == min 時, dynamic_threshold = best * ( 1 -threshold );

當 threshold_mode == abs,並且 mode== max 時, dynamic_threshold = best + threshold ;

當 threshold_mode == abs,並且 mode == max 時, dynamic_threshold = best - threshold;

threshold(float)- 配合 threshold_mode 使用。

cooldown(int)- 「冷卻時間「,當調整學習率之後,讓學習率調整策略冷靜一下,讓模型再訓練一段時間,再重啟監測模式。

min_lr(float or list)- 學習率下限,可為 float,或者 list,當有多個引數組時,可用 list 進行設定。

eps(float)- 學習率衰減的最小值,當學習率變化小於 eps 時,則不調整學習率。

'''

6 、自定義調整學習率 lambdalr

為不同引數組設定不同學習率調整策略。調整規則為,

lr=base_lr∗lmbda(self.last_epoch)
fine-tune 中十分有用,我們不僅可為不同的層設定不同的學習率,還可以為其設定不同的學習率調整策略。

torch.optim.lr_scheduler.lambdalr(optimizer, lr_lambda, last_epoch=-1

)'''

lr_lambda(function or list)- 乙個計算學習率調整倍數的函式,輸入通常為 step,當有多個引數組時,設為 list。

'''

Pytorch訓練網路時調整學習率

為了得到更好的網路,學習率通常是要調整的,即剛開始用較大的學習率來加快網路的訓練,之後為了提高精確度,需要將學習率調低一點。如圖所示,步長 學習率 太大容易跨過最優解。如下 表示每20個epoch學習率調整為之前的10 optimizer optim.sgd gan.parameters lr 0....

Pytorch 如何訓練網路時調整學習率

為了得到更好的網路,學習率通常是要調整的,即剛開始用較大的學習率來加快網路的訓練,之後為了提高精確度,需要將學習率調低一點。如圖所示,步長 學習率 太大容易跨過最優解。表示每20個epoch學習率調整為之前的10 optimizer optim.sgd gan.parameters lr 0.1,m...

pytorch筆記 調整網路學習率

1 class lenet t.nn.module 2def init self 3 super lenet,self init 4 self.features t.nn.sequential 5 t.nn.conv2d 3,6,5 6t.nn.relu 7 t.nn.maxpool2d 2,2 8...