機器學習之邏輯回歸

2022-07-15 02:54:15 字數 1323 閱讀 9639

一句話:邏輯回歸假設資料服從伯努利分布,通過極大化似然函式的方法,運用梯度下降求解引數,來達到將資料二分類的目的

邏輯回歸演算法是將線性函式的結果對映到sigmoid函式中:

\[h_=\frac}=\fracx}}

\]函式的形式如下:

因此對於輸入x分類結果為類別1和類別0的概率分別為:

\[\begin

p(y=1|x;\theta)&=h_\\

p(y=0|x;\theta)&=1-h_(x)

\end

\]利用極大似然估計的方法求解損失函式,首先得到概率函式為:

\[p(y|x;\theta)=(h_(x))^y*(1-h_)^

\]因為樣本資料互相獨立,所以它們的聯合分布可以表示為各邊際分布的乘積,取似然函式為:

\[\begin

l(\theta)&=\prod_^|x^;\theta)}\\

&=\prod_^(x^))^}*(1-h_(x^))^})}

\end

\]取對數似然函式:

\[l(\theta)=\log(l(\theta))=\sum_^\log(x^))}+(1-y^)\log()}}))}

\]最大似然估計就是要求得使 \(l(\theta)\) 取最大值時的 \(\theta\) ,為了應用梯度下降法。我們稍微變換一下:

\[j(\theta)=-\fracl(\theta)

\]對於單個樣本來講,\(j(\theta)\) 所對應的 \(c(\theta)\) 為:

\[c(\theta)=-[y\log(x)}+(1-y)\log(x))}]

\]當 \(y=1\) 時:\(c(\theta)=-\log(x)}\)

其函式影象為:

從圖中可以看出,對於正類 \(y=1\),當**值 \(h_(x)=1\) 時,損失函式 \(c(\theta)\) 的值為 0,這正是我們希望得到的。反之,則會給學習演算法較大的懲罰。

當 \(y=0\) 時:\(c(\theta)=-\log(x))}\)

其函式影象為:

分析同上。

機器學習之邏輯回歸

什麼叫邏輯回歸?簡單來講便是目標值只有,而線性回歸的目標值卻是乙個區域 0,1 可以代表得病沒得病,正確錯誤,etc.那麼怎麼才能把給定的輸入值正確的分類到呢,下面就介紹乙個特別的函式 sigmoid函式,g z 1 1 exp z 啥都不說先上圖。上圖便是sigmoid函式圖了,之所以引用這個函式...

機器學習之 邏輯回歸

邏輯回歸又稱logistic回歸,邏輯斯諦回歸,是一種廣義的線性回歸分析模型。sigmoid函式也是神經網路中常用的函式,用於把x從負無窮到正無窮壓縮到y從0到1之間。畫出來就是一條s型曲線,如下圖中的藍色曲線 它以0點為中心對稱,公式如下 當x值接近負無窮時,分母很大,s x 接近0,當x接近正無...

機器學習之邏輯回歸

邏輯回歸 logistic regression 最初是為了解決二分類問題。對於線性模型要想進行如二分類任務,最簡單的辦法就是通過階躍函式 unit step function 即將線性模型的輸出值套上乙個函式進行分割,大於z的判定為0,小於z的判定為1。如下圖左所示 但這有個問題是,分段函式不連續...