回歸和分類的區別

2022-08-14 02:57:10 字數 870 閱讀 8345

分類模型和回歸模型本質一樣,分類模型是將回歸模型的輸出離散化。

舉幾個例子:

1. logistic regression 和 linear regression:

2. support vector regression 和 support vector machine:

3. 神經網路用於 分類 和 回歸:

拓展: 上面的例子其實都是從 prediction 的角度舉例的,如果從training角度來看,分類模型和回歸模型的目標函式不同,分類常見的是 log loss, hinge loss, 而回歸是 square loss。

1.回歸問題的應用場景

回歸問題通常是用來**乙個值,如**房價、未來的天氣情況等等,例如乙個產品的實際**為500元,通過回歸分析**值為499元,我們認為這是乙個比較好的回歸分析。乙個比較常見的回歸演算法是線性回歸演算法(lr)。另外,回歸分析用在神經網路上,其最上層是不需要加上softmax函式的,而是直接對前一層累加即可。回歸是對真實值的一種逼近**。

2.分類問題的應用場景

分類問題是用於將事物打上乙個標籤,通常結果為離散值。例如判斷一幅上的動物是乙隻貓還是乙隻狗,分類通常是建立在回歸之上,分類的最後一層通常要使用softmax函式進行判斷其所屬類別。分類並沒有逼近的概念,最終正確結果只有乙個,錯誤的就是錯誤的,不會有相近的概念。最常見的分類方法是邏輯回歸,或者叫邏輯分類。

3.如何選擇模型

下面一幅圖可以告訴實際應用中我們如何選擇合適的模型。

線性回歸和logistic分類回歸的區別

回歸問題和分類問題是深度學習裡面需要分清楚的兩種情況,需要根據不同的情況制定不同的演算法,完成不同的任務。兩者最本質的區別是回歸問題代表連續的擬合曲線 值,而分類問題則是將輸入的幾個值分為幾個離散的類。例如 線性回歸處理的是回歸問題 e xp ect y w x bexpect y wx b exp...

分類樹和回歸樹的區別

分類樹 以c4.5分類樹為例,c4.5分類樹在每次分枝時,是窮舉每乙個feature的每乙個閾值,找到使得按照feature 閾值,和feature 閾值分成的兩個分枝的熵最大的閾值 熵最大的概念可理解成盡可能每個分枝的男女比例都遠離1 1 按照該標準分枝得到兩個新節點,用同樣方法繼續分枝直到所有人...

回歸樹和分類樹的區別

分類樹 以c4.5分類樹為例,c4.5分類樹在每次分枝時,是窮舉每乙個feature的每乙個閾值,找到使得按照feature 閾值,和feature 閾值分成的兩個分枝的熵最大的閾值 熵最大的概念可理解成盡可能每個分枝的男女比例都遠離1 1 按照該標準分枝得到兩個新節點,用同樣方法繼續分枝直到所有人...