深度學習基礎系列(四) 理解softmax函式

2022-07-05 03:33:08 字數 876 閱讀 6581

深度學習最終目的表現為解決分類或回歸問題。在現實應用中,輸出層我們大多採用softmax或sigmoid函式來輸出分類概率值,其中二元分類可以應用sigmoid函式。

而在多元分類的問題中,我們預設採用softmax函式,具體表現為將多個神經元的輸出,對映到0 ~ 1的區間中,按概率高低進行分類,各概率之和為1。

某分類的概率數學表示式為:yi = ei / ∑j=1ej 

具體來說,假設有四個輸出單元,分別為:

可以看出 y1 + y2 + y3 + y4 = 1。並且其中某神經元的輸出若增加,則其他神經元的輸出則減少,反之也成立。

最後再看看softmax函式如何求導,令y = ex

i / ∑exk ,分兩種情況:

1. i為softmax值,我們對exi 求導,

與此相關的基礎求導公式:(u/v)' = (u' v - uv') / v2 和  (ex)' = ex ,並應用鏈式法則可得求導過程:

dy/dexi = ( ex

i / ∑exk)' 

=  (exi * ∑exk  - exi * exi ) / (∑exk)2 

=  ex

i / ∑exk   -  (ex

i / ∑exk ) * (ex

i / ∑exk )

= yxi - yxi

22. i不為softmax值,我們依然對exi 求導,其過程為:

dy/dexi =  ( ex

j / ∑exk)'     注:i ≠ j

= (0 * ∑exk - exj * exi) / (∑exk)2 

= -1 * (ex

i / ∑exk ) * (exj

/ ∑exk)

= - yxi * yxj 

深度學習基礎系列 VGG

深度學習基礎系列 vgg visual geometry group是牛津大學的乙個科研團隊。他們推出的一系列深度模型,被稱作vgg模型。名 very deep convolutional networks for large scale visual recognition vgg模型是2014年...

深度學習系列 深度學習簡介

機器學習 使用計算機系統利用經驗改善效能,是人工智慧領域的分支,也是實現人工智慧的一種手段。表徵學習關注如何自動找出表示資料的合適方式,以便更好地將輸入變換為正確的輸出。深度學習 具有多級表示的表徵方法,在每一級 原始資料開始 通過簡單的函式將該級的表示變換為更高階的表示。可以將深度學習看作多個簡單...

機器學習系列四 數學基礎

本部分每個知識點分享比較好的部落格,若侵權就刪了。1.導數 2.偏導數與梯度 3.泰勒公式 1.向量與矩陣 2.行列式 3.雅可比矩陣和hessian矩陣 4.特徵值與特徵向量 5.奇異值分解 6.二次型 7.向量與矩陣導數 1.概率公式 1 條件概率 2 全概率公式 3 貝葉斯公式 2.概率分布 ...