TensorFlow損失函式

2022-02-03 06:31:58 字數 1080 閱讀 3007

tensorflow損失函式

正如前面所討論的,在回歸中定義了損失函式或目標函式,其目的是找到使損失最小化的係數。本文將介紹如何在 tensorflow 中定義損失函式,並根據問題選擇合適的損失函式。

宣告乙個損失函式需要將係數定義為變數,將資料集定義為佔位符。可以有乙個常學習率或變化的學習率和正則化常數。

在下面的**中,設 m 是樣本數量,n 是特徵數量,p 是類別數量。這裡應該在**之前定義這些全域性引數:

在標準線性回歸的情況下,只有乙個輸入變數和乙個輸出變數:

在多元線性回歸的情況下,輸入變數不止乙個,而輸出變數仍為乙個。現在可以定義佔位符x的大小為 [m,n],其中 m 是樣本數量,n 是特徵數量,**如下:

在邏輯回歸的情況下,損失函式定義為交叉熵。輸出 y 的維數等於訓練資料集中類別的數量,其中 p 為類別數量:

如果想把 l1 正則化加到損失上,那麼**如下:

對於 l2 正則化,**如下:

由此,你應該學會了如何實現不同型別的損失函式。那麼根據手頭的回歸任務,可以選擇相應的損失函式或設計自己的損失函式。在損失項中也可以結合 l1 和 l2 正則化。

拓展閱讀

為確保收斂,損失函式應為凸的。乙個光滑的、可微分的凸損失函式可以提供更好的收斂性。隨著學習的進行,損失函式的值應該下降,並最終變得穩定。

TensorFlow 損失函式

import numpy as np import tensorflow as tf sess tf.interactivesession 1.多分類中的softmax函式在多分類的神經網路中,通常在最後一層接乙個softmax層。對於n分類問題,softmax層就有n個結點,每個結點輸出的就是該類...

tf 損失函式 TensorFlow裡面損失函式

2 交叉熵 交叉熵 crossentropy 也是loss演算法的一種,一般用在分類問題上,表達的意識為 輸入樣本屬於某一類的概率 其表示式如下,其中y代表真實值分類 0或1 a代表 值。在tensorflow中常見的交叉熵函式有 sigmoid交叉熵 softmax交叉熵 sparse交叉熵 加權...

TensorFlow裡面損失函式

損失函式的選取取決於輸入標籤資料的型別 在tensorflow沒有單獨的mse函式,不過由於公式比較簡單,往往開發者都會自己組合,而且也可以寫出n種寫法,例如 mse tf.reduce mean tf.pow tf.sub logits,outputs 2.0 mse tf.reduce mean...