機器學習之logistic回歸

2021-08-03 03:30:33 字數 1492 閱讀 3046

@(機器學習)[回歸]

《機器學習之線性回歸模型》一章中,我們學習了如何使用線性模型進行回歸學習。如果要將線性模型用來分類,就要用到該章結尾介紹的廣義線性模型了。

logistic回歸模型採用logistic函式來將線性回歸產生的**值z=

wtx+

b 轉化為乙個接近0或1的

y 值; y=

11+e

−z(1)由此得到logistic回歸模型: y=

11+e

−(wt

x+b)

(2)

假設我們的訓練集是由

m 個已標記的樣本構成:

,輸入特徵向量x(

i)∈r

n+1 。(我們約定其中x0

=1對應

截距項 )。

我們將用於分類的函式稱為假設函式(hypothesis function),logistic回歸中的假設函式為: hθ

=11+

e(−θ

tx)(3)

注意,(3

) 中的

θ 等價於[w

;b] 。

我們可以通過「極大似然法」(maximum likelihood method)來估計

θ 。不妨設: p(

y=1|

x;θ)

p(y=

0|x;

θ)=h

θ(x)

=1−h

θ(x)

(4)

那麼有 p(

y|x;

θ)=(

hθ(x

))y(

1−hθ

(x))

1−y(5)

似然函式為: l(

θ)=p

(y|x

;θ)=

∏i=1

mp(y

(i)|

x(i)

;θ)=

∏i=1

m(hθ

(x(i

)))y

(i)(

1−hθ

(x(i

)))1

−y(i

)(6)

對數似然函式為: l(

θ)=logl(

θ)=∑

i=1m

y(i)

loghθ(

x(i)

)+(1

−y(i

))log(1−

hθ(x

(i))

)(7)

我們將訓練模型引數

θ 使其能夠最小化代價函式: j(

θ)=−

1m[∑

i=1m

y(i)

loghθ(

x(i)

)+(1

−y(i

))log(1−

hθ(x

(i))

)](8)

機器學習演算法 之logistic回歸

還是那句話 統計學習 模型 策略 演算法 1.模型 logistic模型是對條件概率進行了建模 雖然叫做logistic回歸,但實際上解決的是基本的二分類問題,因此可以建立上述的條件概率模型。這裡利用了sigmoid函式的特性,比之線性模型,應當是乙個更加合理的模型 2.策略 在建立好概率模型之後,...

《機器學習實戰》之Logistic回歸

本章內容 我們介紹幾個最優化演算法,並利用它們訓練出乙個非線性函式用於分類。回歸 假設我們有一些資料點,我們用一條直線對這些點進行擬合,這個擬合過程就稱作回歸。利用logistic回歸進行分類的主要思想是 根據現有資料對分類邊界線建立回歸公式,以此進行分類 logistic回歸的一般過程 1 收集資...

機器學習 logistic回歸

統計機器學習有兩種常見的機器學習演算法 logistic回歸和svm,這兩種演算法都涉及到優化問題,是非常重要的兩種機器學習演算法,尤其是logistic回歸可能是工程上用的最廣泛的機器學習演算法了。在logistic回歸中訓練分類器就是尋找最佳擬合引數,使用的是最簡單常見優化演算法 梯度下降法。l...