機器學習 邏輯回歸原理及其實現

2021-07-06 02:19:43 字數 2620 閱讀 2262

引言:邏輯回歸是最簡單的機器學習模型,常常應用於各種簡單的任務中。這裡記錄邏輯回歸的背景以及學習方法,權當自己的學習記錄總結。

邏輯回歸:首先,它不是乙個回歸模型,而是乙個分類模型,它是被用來做分類的。 之所以稱之為回歸,是因為它的學習的是模型模型的引數以最佳擬合已有的資料。(比如,根據已有的一些點,回歸出它的直線引數的擬合過程,就稱之為回歸。)

學習方法:梯度上公升法,隨機梯度上公升法。

模型特點:

1. 優點:訓練快、易理解、易實現

2. 缺點:模型不夠強大、擬合能力有限,欠擬合,對於複雜的任務效果不夠好

在二分類的模型中,我們能最希望的函式是乙個二值化函式,也就是

h(x) = 0 當 x > 閾值,h(x)=1 當 x < 閾值

函式下圖所示:

然而,雖然這個函式是我們很想學習到的函式,但是由於它在閾值點處的跳躍性(不連續性),使得它變得不好處理(比如在該點處沒有導數(梯度)的問題)。

幸好,自然是美好的,我們可以用其它的函式來近似這個函式,sigmoid 函式就是乙個很好的近似方法

其函式圖形如下所示(值閾(0–>1))

函式表示式為:

相比於原始的二值化函式,sigmoid函式具有處處連續、可導的優點。

為了實現邏輯回歸分類器,我們將每個特徵都乘以乙個回歸係數wi,然後將結果相加得到乙個值,並將這個值帶入到sigmoid函式中,就會得到乙個0–>1之間的數值,而大於0.5的值被分為1類,小於0.5的被分為0類。所以,邏輯回歸也被稱之為乙個概率估計模型。

在已經確定了分類器模型的函式形式之後,問題就在於如何學習以獲得最佳的回歸係數?

主要是採用梯度上公升及其變形的方法。

它的思想是:要找到某個函式的最大值,最好的方法就是沿著該函式的梯度方向進行尋找。(要有梯度就要求待計算的點有定義並且可導,所以二值化函式不能使用。)

權重更新:

其中alpha為步長,學習(訓練)的停止條件一般為:迭代到達一定的次數,或者演算法已經到達了一定的誤差範圍之內。

注意區別於梯度下降法:跟梯度上公升法是相同的道理,加法變為減法。

隨機梯度上公升法:因為梯度上公升法在每次更新回歸係數的時候都需要遍歷整個資料集合,當資料很多的時候,就不適用了,改進的方法為:一次只使用乙個樣本來更新回歸係數,這種方法稱之為隨機梯度上公升法。

只是它用來尋找最小值(一般是loss最小),而梯度上公升法用來尋找最大值。

所以總的來說,邏輯回歸的計算方法很簡單,就分為兩步:1,計算梯度,2,更新權值。

具體的權重更新方法為:

具體的**如下(python):

def

sigmoid

(x):

''' 邏輯回歸的判別函式

'''return

1.0/(1.0+exp(-x))

defgradientascent

(datas,labels):

''' 輸入引數datas:訓練資料矩陣,每一行為乙個資料

輸入引數labels:標籤資料,為乙個值。

要求引數資料匹配

'''datax = mat(datas)

#每列代表乙個特徵,每行代表不同的訓練樣本。

datay = mat(labels).transpose()

#標籤,將行向量轉置為列向量

m,n = shape(datax)

alpha = 0.001

#步長,也就是學習率

itera_num = 1000

#迭代次數

w = ones((n,1))

for i in range(itera_num):

h = sigmoid(datax * w)

# h 是乙個列向量,元素個數==m

error = datay - h

w = w + alpha * x.transpose()*error

return w

defstochasticgradientascent

(datas,labels):

datax = mat(datas)

#每列代表乙個特徵,每行代表不同的訓練樣本。

datay = mat(labels).transpose()

#標籤,將行向量轉置為列向量

m,n = shape(datas)

alpha = 0.01

w = ones(n)

for i in range(m):

h = sigmoid(sum(datax[i]*w))

error = datay[i] - h

w = w + alpha * error *datax[i]

return w

機器學習 邏輯回歸 Python實現邏輯回歸

coding utf 8 author 蔚藍的天空tom import numpy as np import os import matplotlib.pyplot as plt from sklearn.datasets import make blobs global variable path...

邏輯回歸原理及其推導

邏輯回歸原理 邏輯回歸是利用回歸類似的方法來解決分類問題。假設有乙個二分類問題,輸出y,而線性模型 下文將展示這個模型 的的 值z是實數值,我們希望找到乙個階躍函式將實數z對映為,這樣我們就能很好的處理分類問題了。那麼邏輯回歸中是使用什麼函式來進行對映的呢?就是sigmoid函式 關於為什麼用這個函...

機器學習 邏輯回歸sklearn實現

encoding utf 8 author suns contact sunshuai0518 gmail.com time 2019 7 1 3 22 pm file logistic regression with sklearn.py desc from sklearn.model selec...