Keras筆記 損失函式的使用

2021-09-24 18:38:30 字數 1798 閱讀 2259

keras中文文件:

損失函式(或稱目標函式、優化評分函式)是編譯模型時所需的兩個引數之一:

model.compile(loss='mean_squared_error', optimizer='sgd')
from keras import losses

model.compile(loss=losses.mean_squared_error, optimizer='sgd')

你可以傳遞乙個現有的損失函式名,或者乙個 tensorflow/theano 符號函式。 該符號函式為每個資料點返回乙個標量,有以下兩個引數:

實際的優化目標是所有資料點的輸出陣列的平均值。

mean_squared_error

mean_squared_error(y_true, y_pred)
mean_absolute_error 

mean_absolute_error(y_true, y_pred)
mean_absolute_percentage_error

mean_absolute_percentage_error(y_true, y_pred)
mean_squared_logarithmic_error

mean_squared_logarithmic_error(y_true, y_pred)
squared_hinge

squared_hinge(y_true, y_pred)
hinge

hinge(y_true, y_pred)
categorical_hinge

categorical_hinge(y_true, y_pred)
logcosh

logcosh(y_true, y_pred)
引數

返回

每個樣本都有乙個標量損失的張量。

categorical_crossentropy

categorical_crossentropy(y_true, y_pred)
from keras.utils.np_utils import to_categorical

categorical_labels = to_categorical(int_labels, num_classes=none)

sparse_categorical_crossentropy

sparse_categorical_crossentropy(y_true, y_pred)
binary_crossentropy

binary_crossentropy(y_true, y_pred)
kullback_leibler_divergence

kullback_leibler_divergence(y_true, y_pred)
poisson

poisson(y_true, y_pred)
cosine_proximity

cosine_proximity(y_true, y_pred)

Keras加權損失函式

ref keras提供的損失函式binary crossentropy和categorical crossentropy沒有加權,如果想實現樣本的不同權重功能有一種策略是對損失函式加權處理。二分加權交叉熵損失 class weightedbinarycrossentropy object def i...

pytorch和keras損失函式區別

學習pytorch首先是要裝pytorch啦!但是這是乙個磨人的小妖精,傳統的用pip可是裝不上的。為此,可以參考我的另一篇部落格,這可是我研究一天的結晶!這篇筆記是 關於機器學習損失函式的,根據不同的應用場景,需要選擇不同的損失函式。線性回歸因為 的數值有具體的意義,所以損失函式一般使用的均方誤差...

keras中損失函式簡要總結

from keras.losses import 以下是正文。方差。差點忘了方差是什麼,丟死人。注重單個巨大偏差。差的絕對值的平均數。平均對待每個偏差。誤差百分數 非負 的平均數。比如50和150對100的誤差百分數都是50。自己感受。對數的方差。會將值先 1再取對數 奇怪。log cosh err...