深度學習之softmax回歸

2022-07-16 00:45:17 字數 992 閱讀 4376

前言

softmax回歸

首先,我們看一下sigmod啟用函式,如下圖,它經常用於邏輯回歸,將乙個real value對映到(0,1)的區間(當然也可以是

(-1,1)),這樣可以用來做二分類。

接下來,我們再看一下softmax函式,其函式型別如下:

那麼,softmax又是怎麼實現的呢?softmax把乙個k維的real value向量(a1,a2,a3,a4….)對映成乙個(b1,b2,b3,b4….)

其中bi是乙個0-1的常數,然後可以根據bi的大小來進行多分類的任務,如取概率最大的一維。具體實現如下圖:

無非是把神經網路最後一層的啟用函式替換為softmax函式,算出概率值最大的那一類即正確類。

其代價函式為l(ý,y)= - ∑ yj * log( ýj ) 。

例項如下圖所示,當代價函式最小時,那乙個正確分類的概率輸出值最大。

深度學習基礎 實現Softmax回歸

matplotlib inline import d2lzh as d2l from mxnet import gluon,init from mxnet.gluon import loss as gloss,nn 在給出 之前,先介紹一下該資料集。fashion mnist資料集是比mnist資料...

機器學習之Softmax回歸模型

softmax在機器學習中有非常廣泛的應用,但是剛剛接觸機器學習的人可能對softmax的特點以及好處並不理解,其實你了解了以後就會發現,softmax計算簡單,效果顯著,非常好用。我們先來直 一下,softmax究竟是什麼意思 我們知道max,假如說我有兩個數,a和b,並且a b,如果取max,那...

機器學習之softmax回歸筆記

logistic回歸是用來解決二類分類問題的,如果要解決的問題是多分類問題呢?那就要用到softmax回歸了,它是logistic回歸在多分類問題上的推廣。此處神經網路模型開始亂入,softmax回歸一般用於神經網路的輸出層,此時輸出層叫做softmax層。首先介紹一下softmax函式,這個函式可...