感知機演算法的幾點總結

2021-09-25 05:10:13 字數 2458 閱讀 3889

y

語句讓他家戶戶 任天野還讓f(

x)=s

ign(

w⋅x+

b)   

其實,sign是符號函式,w是權重,w·x是內積,b是偏置, w⋅x

+b=0是超平面。l(

w,b)

=−∑x

i∈my

i(w⋅

xi+b

)∇wl

(w,b

)=−∑

xi∈m

yixi

∇bl(

w,b)

=−∑x

i∈my

i∇wl

(w,b

)=−∑

xi∈m

yixi

∇bl(

w,b)

=−∑x

i∈my

i損失函式是由誤分類點到超平面的距離推導而來

損失函式的梯度: ∇w

l(w,

b)=−

∑xi∈

myix

i∇bl

(w,b

)=−∑

xi∈m

yi∇w

l(w,

b)=−

∑xi∈

myix

i∇bl

(w,b

)=−∑

xi∈m

yi∇w

l(w,

b)=−

∑xi∈

myix

i所以 w←w

+ηyi

xi∇bl

(w,b

)=−∑

xi∈m

yi     b←b

+ηyi

(1)選取初值w0,b0

(2)在訓練集中任意選取點(xi,yi)

(3)如果−y

i(w⋅

xi+b

)>

0則按照(4)式更新w,b

(4)重複2直到沒有被誤分的點

對偶形式的基本想法是,將w和b表示為例項xi

和標記 yi

的線性組合的形式,通過求解其係數而求得w和b.

假設w0=0,b=0,當所有的點均不發生誤判時,最後的w,b一定有如下的形式:

w=∑i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=∑i=

1nni

ηyi=

∑i=1

nαiy

iw=∑

i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=∑i=

1nni

ηyi=

∑i=1

nαiy

iw=∑

i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=∑i=

1nni

ηyi=

∑i=1

nαiy

iw=∑

i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=∑i=

1nni

ηyi=

∑i=1

nαiy

iw=∑

i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=∑i=

1nni

η∑i=

1∑ i

nαiy

iw=∑

i=1n

niηy

ixi=

∑i=1

nαiy

ixib

=iw=

∑i=1

nniη

yixi

=∑i=

1nαi

yixi b=∑

i=1n

niηy

i=∑i

=1nα

iyi其中α

i=ni

η中ni

代表對第i個樣本的學習次數,感知機對偶形式的完整形式:f(

x)=s

ign(

∑j=1

nαjy

jxj⋅

x+b)

簡而言之,感知機的對偶形式就是把對w,

b的學習變成了對α,

b的學習,原始形式中,

w在每一輪迭代錯分時都需要更新,而採用對偶形式時,對於某一點(xi,yi)發生錯分時,我們只需要更新其對應的αi

即可,然後一次性計算出w

對偶形式中訓練例項僅僅以內積的形式出現,為了方便,可以預先將訓練集中的例項間的內積計算出來並且以矩陣的形式儲存,這個矩陣就是gram矩陣(gram matrix)

當訓練資料集線性可分時,感知機的演算法是收斂的,並且存在無窮多個解。

感知機演算法

1 目標 感知機演算法針對二分類問題 f x x 1 實質在於對於線性可分的資料集 x i0,x i1,x in y i xi y i i 0,1 2,m 2 找到乙個超平面 x b 0 將資料分成兩部分,使得位於位於超平面上半部分的資料點屬於 1 類,處於超平面下半空間的資料點屬於 1 類。2 優...

感知機演算法

利用帶有0 1門限的神經元進行學習。形式化如下 感知機輸入x x 感知機權值w w 偏置 b 1令y x wxt b y x wx t b感知機輸出 z x role presentation t t 及標籤集y y 每次餵入乙個樣本xi x i,若yi z x i y i z xi 則不修正權重 ...

感知機學習總結

感知機是一種線性二分類模型,它屬於判別模型。感知機學習旨在求出將訓練集進行線性劃分的超平面。損失函式採用誤分類的損失函式,使用梯度下降演算法進行對損失函式最小化。感知機是神經網路與svm的基礎。剛剛提到判別模型,什麼是判別模型?判別模型 生成模型 判別模型 由資料直接學習決策函式f x 或者條件概率...