python編寫softmax函式 交叉熵函式例項

2021-10-07 07:45:51 字數 832 閱讀 6511

python編寫softmax函式、交叉熵函式例項

python**如下:

import numpy as np
python編寫交叉熵公式:

import numpy as np
def cross_entropy(y, p):

y = np.float_(y)

p = np.float_§

return -np.sum(y * np.log§ + (1 - y) * np.log(1 - p))

補充知識:分類時,為什麼不使用均方誤差而是使用交叉熵作為損失函式

mse(均方誤差)對於每乙個輸出的結果都非常看重,而交叉熵只對正確分類的結果看重。

例如:在乙個三分類模型中,模型的輸出結果為(a,b,c),而真實的輸出結果為(1,0,0),那麼mse與cross-entropy相對應的損失函式的值如下:

mse:

cross-entropy:

從上述的公式可以看出,交叉熵的損失函式只和分類正確的**結果有關係,而mse的損失函式還和錯誤的分類有關係,該分類函式除了讓正確的分類盡量變大,還會讓錯誤的分類變得平均,但實際在分類問題中這個調整是沒有必要的。

但是對於回歸問題來說,這樣的考慮就顯得很重要了。所以,回歸問題熵使用交叉上並不合適。

茂名論壇

化州橘紅

茂名論壇

原始碼蒐藏網

softmax分類器 python實現

演算法這裡為了防止大家看不懂我的程式,我在這裡做一些定義 jj x i 1 p y i j x i j 1 p y i j x i e tjx i kl 1e tlx i 2 e tlx i 3 資料集 特徵將整個圖作為特徵 已上傳github 這次的 是python3的。encoding utf8...

如何用Python計算Softmax?

softmax函式,或稱歸一化指數函式,它能將乙個含任意實數的k維向量z 壓縮 到另乙個k維實向量 sigma 中,使得每乙個元素的範圍都在 0,1 之間,並且所有元素的和為1。該函式的形式通常按下面的式子給出 sigma frac e quad for j 1,k 輸入向量 1,2,3,4,1,2...

python實現 softmax啟用函式

softmax函式 以上版本有問題 a np.array 1010,1000,990 np.exp a np.sum np.exp a main 1 runtimewarning overflow encountered in exp main 1 runtimewarning invalid va...