邏輯回歸原理及其推導

2021-09-11 18:26:52 字數 1922 閱讀 3688

**:

邏輯回歸原理

邏輯回歸是利用回歸類似的方法來解決分類問題。假設有乙個二分類問題,輸出y,而線性模型(下文將展示這個模型)的的**值z是實數值,我們希望找到乙個階躍函式將實數z對映為,這樣我們就能很好的處理分類問題了。那麼邏輯回歸中是使用什麼函式來進行對映的呢?就是sigmoid函式(關於為什麼用這個函式這裡檢視)。

sigmoid函式影象:

sigmoid函式中的z就是線性函式的z,因為g(z)最後輸出的時樣本類別的概率值,所以我們可以把閾值設為0.5,g(z)大於等於0.5的看作1,小於0.5的看作0,這樣我們就能利用邏輯回歸來處理二分類問題了。分類結果就是這樣子的。

那我們現在的問題就是怎樣計算得到線性函式的模型,也就是我們上文提到輸出為z的線性模型。為了使模型能分類更準確,我們需要得出乙個最優的線性模型函式。也就是下圖所示的公式。如何讓這個引數達到最優呢?我們就要對每個x找到最優的引數

此時我們可以先將線性模型和sigmoid函式結合起來構造邏輯回歸的**函式:

通常求解回歸問題(也就是上面的線性問題)的常規步驟為三步:

1.尋找**函式(x)

2.構造損失函式j()

3.想辦法使得j()函式最小並求得回歸引數θ

構造損失函式

上面我們已經寫出了輯回歸的**函式,所以下一步我們要構造損失函式j()。構造損失函式j()我們可能會先想到模仿線性回歸中的平方誤差作為損失函式,但是如果使用平方誤作損失函式的話我們得到的損失函式就是乙個非凸函式,這就意味著損失函式有許多區域性最優解,就不能得到全域性最優的。

那我們就要構造其他的損失函式了。我們再來看問題本身,我們要解決的時二分類問題,函式

y(標籤)要麼取0要麼取1,這樣就可以把兩個類別進行整合,得到乙個更直觀的表達。

此時p就是某個樣本的概率值,我們只要最大化樣本的概率就可以得到最好的分類模型了。接下來我們用極大似然函式來求解樣本的概率值p

這裡就是用極大似然估計來求最優的θ。最大似然估計就是求使l(θ)取最大值時的θ,其實這裡可以使用梯度上公升法求解,求得的θ就是要求的最佳引數。因為在很多其它的講解中都是用梯度下降來求解l(θ),是因為它們在l(θ)前加了乙個負號,使j(θ)=-l(θ),此時就是用梯度下降來求j(θ)了。這裡我們使用梯度下降來求解。如果你想用梯度上公升求解也沒問題。

θ更新過程:

θ更新過程可以寫成

這時我們就能求出最優的引數

關於邏輯回歸的**實現我就不在這裡寫了,網上已經有很多人寫了,很容易就能找到。

(附)邏輯回歸推導

邏輯回歸主要處理分類問題,屬於線性模型,模型表達能力有限需要構建深層次的特徵。ps 在推薦模型裡對lr改進著名的有fm和ffm模型增加了特徵自組合出更高維度的特徵來加強模型的表達。ps fm 因子分解機 對模型的引數以及對應的特徵進行分解來達到特徵組合的目的。ps ffm 場感知因子分解機 對fm引...

邏輯回歸 之 Logist 推導

可以咱學校教材大二版的 概率論與數理統計 山大版,來整一波,為了簡化推導形式呢,這裡就假設2個樣本空間的形式來展開,基於 條件概率 全概率與貝葉斯作為核心.栗子 全概率與貝葉斯 設某廠有甲,乙,丙 三個車間都生產 a 產品.已知 先驗概率 各車間產量分別佔全廠的 25 35 40 且各車間的次品率分...

邏輯回歸原理

而在最大熵原理的指導下,我們知道了那條曲線應該是乙個什麼樣子的。首先,回顧我們之前推導出的最大熵模型為 ex p i 1nw ifi x,y ye xp i 1n wifi x,y 在二分類的邏輯回歸模型中,y的取值假定有兩種 y0 y1 那麼對應到特徵函式 fi x,y 上,我們可以設定 f x,...