優化之 學習率的設定

2021-08-14 09:13:33 字數 977 閱讀 8158

先用較大的學習率來加速得到較優解,隨著迭代的繼續逐步減小學習率,使得模型在訓練後期更加穩定。

decayed_learning_rate = learning_rate*decay_rate^(global_step/decay_step)

learning_rate為設定的初始學習率

decay_rate為衰減係數

global_step已訓練次數

decay_step為使用一遍訓練資料需要迭代的論數

decay_step= train_num/batch_size

exponential_decay(learning_rate, global_step, decay_steps, decay_rate,

staircase=false, name=none):

global_step = tf.variable(0)

learning_rate = tf.train

.exponential_decay(learning_rate_base,

global_step,

mnist.train

.num_examples/batch_size,

learning_rate_decay)

train_step = tf.train

.gradientdescentoptimizer(learning_rate).minimize(loss,global_step=global_step)

自動更新global_step, global_step: optional `variable` to increment by one after the

for i in range(training_step):

xs , ys = mnist.train

.next_batch(batch_size)

sess.run(train_step,feed_dict=)

機器學習,引數之 學習率設定

1,機器學習中的學習率設定 學習率控制的是引數的更新速度,學習率設定過大,會導到損失函式在極小值附近來回變化,不收斂,學習率設定過小,會導到學習速度變慢。tensorflow中提供了學習率衰減機制,可以開設定乙個較大的學習率和乙個衰減係數,讓損失函式在剛開始 以的較快的速度下降,隨著訓練次數增加,學...

keras設定學習率 優化器的用法

優化器 optimizer 是編譯 keras 模型的所需的兩個引數之一 from keras import optimizers model sequential model.add dense 64,kernel initializer uniform input shape 10,model....

TensorFlow 學習率的設定

為了解決學習率不能過大不能過小的問題,tensorflow提供了靈活的學習率設定方法 指數衰減法 tensorflow.train.exponential decay learing rate,global step,decay steps,decay rate,staircase false,na...