線性回歸和logistic分類回歸的區別

2021-10-09 14:24:28 字數 1593 閱讀 3707

回歸問題和分類問題是深度學習裡面需要分清楚的兩種情況,需要根據不同的情況制定不同的演算法,完成不同的任務。

兩者最本質的區別是回歸問題代表連續的擬合曲線**值,而分類問題則是將輸入的幾個值分為幾個離散的類。

例如:線性回歸處理的是回歸問題:

e xp

ect(

y)=w

x+

bexpect(y)=wx+b

expect

(y)=

wx+b

loss=1n∑

i=1n

(exp

ect(

yi)−

yi)2

\frac\sum_^n(expect(y_i)-y_i)^2

n1​∑i=

1n​(

expe

ct(y

i​)−

yi​)

2通過不斷的調整w和b的值,利用梯度下降原理,尋找到最小的loss值,最優擬合線性模型。

梯度:(af

ax,a

fay)

(\frac,\frac)

(axaf​

,aya

f​)又可以稱為grad f(x,y)

梯度下降:和下山一樣,通過各個位置的梯度,尋找最為陡峭的梯度,沿著梯度的負方向走一步,這一步的長度被稱為學習率μ

\muμ。然後繼續求得下乙個位置的梯度,並更新之前的w和b的值。

w =w

−μαl

ossa

ww=w-\mu\frac

w=w−μa

wαlo

ss​b=b

−μαl

ossa

bb=b-\mu\frac

b=b−μa

bαlo

ss​通過這種方法,找到loss最小值,求得最優解的w,b。

logistic回歸模型和線性回歸模型形式差不多,都是y=wx+b,其中x可以是乙個多維特徵。區別是logistic回歸會對y作用乙個sigmoid函式。

sigmoid :f(x

)=11

+e−x

f(x)=\frac}

f(x)=1

+e−x

1​這個函式的值域為(0,1),通過這個函式作用之後,所有的y值都會到(0,1)這個區間內,這個值可以被理解為概率。比如對於二分類問題,這個值越小,就屬於第一類,越大屬於第二類。

l os

s=−(

ylog

(exp

ect(

y))+

(1−y

)log

(1−e

xpec

t(y)

))

loss=-(ylog(expect(y))+(1-y)log(1-expect(y)))

loss=−

(ylo

g(ex

pect

(y))

+(1−

y)lo

g(1−

expe

ct(y

)))

因此這兩個模型的區別就在前者的值可以是連續的,而後者我們希望它最終屬於某個類,是離散的。

參考文章:

logistic分類(logistic回歸 LR)

幾乎所有的教材都是從logistic分類開始的,因為logistic分類實在太經典,而且是神經網路的基本組成部分,每個神經元 cell 都可以看做是進行了一次logistic分類。所謂logistic分類,顧名思義,邏輯分類,是一種二分類法,能將資料分成0和1兩類。logistic分類的流程比較簡單...

線性回歸 Logistic回歸 Softmax回歸

什麼是回歸?給定一些資料,x的值來 y的值,通常地,y的值是連續的就是回歸問題,y的值是離散的就叫分類問題。高爾頓的發現,身高的例子就是回歸的典型模型。回歸分為線性回歸 linear regression 和logistic 回歸。線性回歸可以對樣本是線性的,也可以對樣本是非線性的,只要對引數是線性...

logistic回歸 logistic回歸

logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...