白話機器學習 邏輯斯蒂回歸 理論篇

2021-08-14 18:52:02 字數 2208 閱讀 8551

@(2023年例會)

損失函式

前面講述了線性回歸,線性回歸的模型 y=

wt+b

。模型的**值逼近真實標記y。那麼可否令模型的**值逼近真實標記y的衍生物呢。比如說模型的**值逼近真實標記的對數函式。下面引入邏輯回歸的知識。

我們需要乙個單調可微函式將分類任務的真實標記y與線性回歸模型的**值聯絡起來,所以需要乙個轉換函式將線性模型的值與實際的**值關聯起來。

考慮二分類問題,其輸出標記是y屬於,而線性模型產生的**值是z=

wt+b

是實值,那麼我們需要將這個實值轉化成0/1值,最理想的函式是單位階躍函式。

單位階躍函式(unit-step function),如下圖,如果**值大於零則判斷為正例;如果**值小於零則判斷為反例;為零的則任意判斷。如下圖所示。

y=

⎧⎩⎨0

0.51

if z < 0

if z = 0

if z > 0

從圖中可以看出,單位階躍函式不連續因此不適合用來計算。這裡我們引入sigmoid函式,進行計算。 y=

11+e

−z將z值轉化為乙個接近0或1的y值,並且其輸出值在z=0的附近變化很陡。那麼我們現在的模型變化成

機率:如果將y作為正例的可能性,1-y作為負例的可能性,那麼兩者的比值y1

−y稱為機率,反應了x作為正例的相對可能性。則根據sigmoid函式可得。

ln

y1−y

=wt+

b

ln

y1−y

稱為對數機率;

由此可以看出,y=

11+e

−(wt

+b) 實際上是用線性模型的**結果去逼近真實標記的對數機率,因此,其對應的模型稱為「對數機率回歸」

下面介紹損失函式以及計算方法。

因為:ln

y1−y

=wt+

b 。所以

p(

y=1|

x)=e

(wt+

b)1+

e(wt

+b)

p(y=

0|x)

=11+

e(wt

+b)

我們採用極大似然估計法進行求解,由於是二分類問題,所以符合概率裡面的0-1分布,所以似然函式為 令p

(y=1

|x)=

e(wt

+b)1

+e(w

t+b)

=f(x

) ,p(

y=0|

x)=1

1+e(

wt+b

)=1−

f(x)

l(

w)=∏

i=1n

[f(x

i)]y

i[1−

f(xi

)]1−

yi對數似然函式為:l(

w)=l

nl(w

)=∑i

=1n[

yiln

f(xi

)+(1

−yi)

ln(1

−f(x

i))]

l(w)=ln

l(w)

=∑i=

1n[y

ilnf

(xi)

1−f(

xi)+

ln(1

−f(x

i))]

l(w)=ln

l(w)

=∑i=

1n[y

i(wx

i)−l

n(1+

ewxi

)]求這個函式的最大值,加個負號,求最小值。運用前面章節介紹的梯度下降和牛頓法都可以求解,這裡不再贅述。

邏輯斯蒂回歸 機器學習ML

參考 1.統計學習方法 李航 2.邏輯斯蒂回歸是乙個非常經典的二項分類模型,也可以擴充套件為多項分類模型。其在應用於分類時的過程一般如下,對於給定的資料集,首先根據訓練樣本點學習到引數w,b 再對 點分別計算兩類的條件概率,將 點判為概率值較大的一類。1 線性模型 邏輯斯蒂回歸屬於對數線性模型,那什...

《機器學習實戰》 邏輯斯蒂回歸《一》

回歸我們知道有線性回歸,線性回歸模型能夠無限的逼近我們的結果。以 x i,yi 為例,通過線性回歸 f x w tx b 表示式,就可以得到我們對yi 的估計值。如何從線性回歸轉換到分類呢?由於線性回歸得到的是連續值,z wtx b z 的範圍 是這樣的乙個連續值無法直接轉換為類別。那怎麼辦?最簡單...

機器學習演算法詳解 邏輯斯蒂回歸模型

邏輯斯蒂回歸模型是一種分類模型,其目的解決分類問題而非回歸問題。logistic回歸是乙個判別模型,直接學習後驗概率分布,其學習演算法可以理解為極大似然估計法。模型分類演算法通過定義乙個分離超平面來分割不同類別的資料,用sigmoid函式作為後驗概率分布函式來對輸入資料進行分類。模型的學習演算法通過...