貝葉斯分類器期望損失函式理解及衍生的全新理解

2021-08-27 03:11:09 字數 472 閱讀 6965

期望損失函式之所以難以理解是因為定性思維認為它是乙個損失函式;一是x固定的情況下,怎麼還有這麼多種可能;這好理解,多分類輸出就是概率向量值,對應每個類別的概率;二是怎麼沒有真實樣本的標籤;因為這個函式根本就不是平常所理解的損失函式;它只是乙個統計期望值的函式,而且是統計損失值的,不同於收益統計;因為結果未知,就好比玩德州撲克,還有最後一張牌沒發,那你就思考這張牌給我帶來的損失是多少,基於牌的每一種可能性做損失統計,同花順,葫蘆,同花,順子等,每一種牌輸的概率是多少,會損失多少籌碼,然後計算個平均值;如下所示:

從這裡我也明白了,從風險最小化和收益最大化的角度來看,兩個結果是不同的;乙個是風險厭惡型的,乙個是風險偏好型的;

交叉熵損失函式理解

交叉熵損失函式的數學原理 我們知道,在二分類問題模型 例如邏輯回歸 logistic regression 神經網路 neural network 等,真實樣本的標籤為 0,1 分別表示負類和正類。模型的最後通常會經過乙個 sigmoid 函式,輸出乙個概率值,這個概率值反映了 為正類的可能性 概率...

多分類器的損失函式

函式特性 在機器學習中,hinge loss是一種損失函式,它通常用於 maximum margin 的分類任務中,如支援向量機。數學表示式為 假設我們現在有三個類別 而得分函式計算某張 的得分為f x,w 13,7,11 而實際的結果是第一類 yi 0 假設 代爾塔 10 上面的公式會把所有錯誤類...

sklearn 分類器評估指標,損失函式

分類器評估指標 1.精確率 accuracy score函式計算分類準確率 返回被正確分類的樣本比例或者數量 當多標籤分類任務中,該函式返回子集的準確率,對於給定的樣本,如果 得到的標籤集合與該樣本真正的標籤集合吻合,那麼subset accuracy 1否則為零 import numpy as n...