線性回歸與邏輯回歸有什麼區別 ? 神經網路入門

2021-10-01 07:39:07 字數 1105 閱讀 4707

在談線性回歸與邏輯回歸前,我們先聊聊什麼是回歸吧?

我們可以認為資料樣本的所有資料都是具有一定關係的,其符合一定的分布規律。或者說我們可以將資料想象成各種曲線。而回歸的作用就是確定這些曲線。所以我們可以根據這些確定的曲線,去**更多資料的分布趨勢。

所以我們常說:回歸就是一種擬合資料的方法。

在回歸中又分為線性回歸和邏輯回歸:

邏輯回歸的決策函式 ?

邏輯回歸的決策函式有很多,但是最經典的當屬:

①sigmoid函式;

將乙個單一數值對映到0-1之間。

例子:

②softmax函式;

softmax 的輸出表徵了不同類別之間的相對概率,且相對概率之和為1。所以其本質就是將乙個k 維的任意實數向量壓縮(對映)成另乙個k。

softmax函式是sigmoid函式的多維形式,引數不是單個變數而是多維向量

其中sigmoid函式主要用於進行二分類,softmax主要解決多分類任務。

事實上我們通過使用決策函式將線性回歸的結果壓縮到0到1之間。也就是說本來擬合的值現在對映在0-1之間,那我們就可以取0-1之間的某個值作為閾值來進行二分類。

線性回歸假設因變數 y 服從 高斯分布(正態分佈)。

因為在大多數情況下,我們無法預知未知事件的概率分布,所以我們只能選擇正態分佈。因為它是所有概率分布中最可能的表現形式。

邏輯回歸假設因變數 y 服從伯努利分布

因為邏輯回歸的最終結果是為二點分布或多點分布,為0 或 1。

這裡我們給大家提供乙個例子,大家可以去列印出邏輯回歸的各個過程。

示例:病人腫瘤**

線性回歸與邏輯回歸的區別

以經典的 房價為例,假設樣本為 x,y ix,y i x,yi 其中x是多維變數 x x1,x 2.xn x x 1,x 2.x n x x1 x2 x n 屬性包括房子大小,使用年限等,y是對應該樣本的房價。那麼我們就可以得到乙個 房價的假設模型,h x txh theta x theta t x...

線性回歸與邏輯回歸

cost functionj 12m i 1m h x i y i hypothesish x tx 梯度下降求解 為了最小化j j j 1m i 1m h x i y i x i j 每一次迭代更新 j j 1m i 1m h x i y i x i j 正規方程求解 最小二乘法 xtx 1x t...

邏輯回歸與線性回歸的區別與聯絡

邏輯回歸與線性回歸都屬於廣義線性回歸模型,其區別與聯絡從以下幾個方面比較 分類與回歸 回歸模型就是 乙個連續變數 如降水量,等 在分類問題中,屬於某類的概率,可以看成回歸問題。這可以說是使用回歸演算法的分類方法。輸出 直接使用線性回歸的輸出作為概率是有問題的,因為其值有可能小於0或者大於1,這是不符...