線性回歸, 邏輯回歸和線性分類器

2021-08-07 16:01:20 字數 1899 閱讀 8225

線性回歸, linear regression

邏輯回歸, logistic regression

線性分類器, linear classifier

邏輯分類器, logistic classifier. 注意,這個名詞是我在文章中為了方便說明問題造出來的.

線性回歸可以看作乙個perceptron, 啟用函式是identical, 即f(

x)=x

.將邏輯回歸也可以看作乙個perceptron, 不同的是使用了sigmoid啟用函式.

一般的說法是, 線性回歸是真正的回歸, 而邏輯回歸是乙個分類器, 不是真回歸. 這算是乙個約定俗成的乙個失誤性命名嗎? no. 邏輯回歸的主體還是回歸操作: 回歸物件是sigmoid函式, 它將輸入對映為乙個處於0到1之間的小數. 得到這個0到1之間的小數之後人為將其解讀成概率, 然後根據事先設定的閾值進行分類. 回歸操作的工作量在整個logistic regression中保守估計也得超過99%

. 以這個演算法的主體---邏輯回歸來命名演算法是無可厚非的. 當然, 若一定要叫logistic classifier也是可以的, 只不過大家都不這麼叫而已.

已經有了logistical regression, logistic classifier, linear regression, 很自然的就能想到 linear classifier. logistic classifier是在logistic regression之後加了一步. 雖然linear classifier 與linear regression 之間沒有這種關係, 但它們在形式上還是很相似的:

logistic regression(這裡特指回歸操作):f(

x)=s

igmo

id(w

tx+b

)

logistic classifier:y=

{1−1

f(x)

≥0.5f(

x)<

0.5

linear regression: f

(x)=

wtx+

b

linear classifier: y

={1−

1f(x

)≥0f

(x)<

0

是不是很具有迷惑性?

可這只是表面現象, 因為linear classifier裡的f(

x)並不是通過linear regression得到的. 說到這裡就得給linear classifier下乙個定義了. 簡單的講, 

linear classifier就是以超平面(hyperplane)為決策邊界(decision boundary)的分類器. 常見的linear classifier有logistic regression, svm, perceptron. 很明顯, 這些個分類演算法都不是通過linear regression 得到自己的分類超平面的.

還有一類經常引起爭論的問題: 資料集

d

在原始輸入空間

χ

上是線性不可分的, 但將其對映到另外乙個空間, 稱為特徵空間

h

上又成了線性可分的. 例如χ→

h:x→

(x,x

2,x3

)

, 判定函式為f(

x)={

1−1,

x+x2

+x3≥

0,x+

x2+x

3<

0

問這個分類器是線性還是非線性的? (其實是使用了kernel)

我個人的看法是: 在特徵空間 h

上是線性的, 在原始輸入空間 χ

上是非線性的. 如果不指明是哪個空間, 預設為原始輸入空間, 為非線性的.

線性回歸和邏輯回歸

最近開始學習機器學習,有點心得體會,記錄一下,希望大家批評指正 監督學習 supervised learning 根據已有的資料集,知道輸入和輸出結果之間的關係。根據這種已知的關係,訓練得到乙個最優的模型。也就是說,在監督學習中訓練資料既有特徵 feature 又有標籤 label 通過訓練,讓機器...

線性回歸 和 邏輯回歸

跟著b站乙個小姐姐學的 很不錯 1 什麼是回歸 什麼是分類?簡單來說一般回歸問題在數值上是乙個連續的 而分類問題在數值上一般是離散型的 回歸 回歸模型的更傾向於很小的區域 或者是乙個x對應乙個y 線性回歸就不在討論了 這裡學習一下 邏輯回歸 邏輯回歸 聽起來是回歸 但實際上他是解決分類問題的 是乙個...

Coursera 線性回歸和邏輯回歸

在原式子裡加入乙個 error term 之後得到這個 error tem 的正態分佈,從而到處輸出y和x 之間的概率關係。然後通過最大似然估計法,得到若要使得y的概率最大,等價於利用最小二乘法最小化 引數 的數量隨著訓練資料的增大而變多,但是當訓練資料量巨大的時候,每次 所需要的代價都很高。原訓練...