keras中損失函式簡要總結

2022-07-05 23:21:12 字數 520 閱讀 2096

from keras.losses import *

以下是正文。

方差。(差點忘了方差是什麼,丟死人。)

注重單個巨大偏差。

差的絕對值的平均數。

平均對待每個偏差。

誤差百分數(非負)的平均數。比如50和150對100的誤差百分數都是50。

自己感受。

對數的方差。(會將值先+1再取對數)

奇怪。log(cosh(error))。

據說類似方差。

哦,原來陣列是batch陣列啊。我還以為是sequence陣列呢。那我要是返回xx怎麼搞啊。

有人說回歸問題常用方差,分類問題常用交叉熵。

有人言,交叉熵描述了兩個概率分布的距離

如果要將神經網路的輸出轉化為概率分布,使用softmax。(剛才寫成sigmoid了,又丟人了)

keras中有binary_crossentropy和categorical_crossentropy。不知道有什麼區別。

Keras加權損失函式

ref keras提供的損失函式binary crossentropy和categorical crossentropy沒有加權,如果想實現樣本的不同權重功能有一種策略是對損失函式加權處理。二分加權交叉熵損失 class weightedbinarycrossentropy object def i...

Keras中的幾種交叉熵損失函式

sigmoid和softmax是神經網路輸出層使用的啟用函式,分別用於兩類判別和多類判別。binary crossentropy損失函式和sigmoid啟用函式相匹配,適應兩類別分類的問題。categorical crossentropy損失函式和softmax啟用函式相匹配,適應多類別分類的問題。...

Keras筆記 損失函式的使用

keras中文文件 損失函式 或稱目標函式 優化評分函式 是編譯模型時所需的兩個引數之一 model.compile loss mean squared error optimizer sgd from keras import losses model.compile loss losses.me...