tensorflow中的優化函式

2021-08-01 03:42:17 字數 386 閱讀 7041

gradientdescentoptimizer 

adagradoptimizer 

adagraddaoptimizer 

momentumoptimizer 

adamoptimizer 

ftrloptimizer 

rmspropoptimizer

主要有以上幾種

用法:tf.gradientdescentoptimizer(learning_rate)

一般在上面這個函式的後面還會加乙個最小化代價函式,構成深度學習中的訓練物件

tf.gradientdescentoptimizer(learning_rate).minimize(loss)

其他的函式用法很類似,只是裡面的引數有些不同

tensorflow中的優化器

1.tf.train.gradientdescentoptimizer 標準梯度下降優化器 標準梯度下降先計算所有樣本彙總誤差,然後根據總誤差來更新權值 2.tf.train.adadeltaoptimizer adadelta優化器,在sgd的基礎上 3.tf.train.adagradoptim...

TensorFlow中的優化演算法

隨機梯度下降 sgd stochastic gradient descen 每次從訓練樣本中隨機抽取乙個樣本計算loss和梯度並對引數進行更新,由於每次不需要遍歷所有的資料,所以迭代速度快,但是這種演算法比較弱,往往容易走偏。與隨機梯度下降相對應的還有批量梯度下降bgd,每次用整個訓練集計算梯度,比...

tensorflow2 0之one hot函式使用

先了解一下one hot要幹啥吧。來,咱先看個程式,你一定會很眼熟的。嘿,是不是發現什麼了?labels向量最後可以表示乘矩陣的方式,且 1 0 0 表示0,類推 0 1 0 0 表示1,這樣,可以表示 0 9總共九個數值。one hot的作用就是這樣的,作為儲存標籤的一種方式,用1的位置不同來區分...