第二章 感知機

2022-06-13 03:51:11 字數 1362 閱讀 5489

目錄感知機的演算法

\[\begin sign(x) = \left\ +1&, x \geq 0 \\

-1 &, x <0 \end \right. \end \]

假設空間\(\\)

存在超平面\(w\cdot x+b=0\)使得正負樣例在超平面兩側

資料集線性可分的充分必要條件是,正負例項點所構成的凸殼互不相交

\(conv(s) = \^\lambda_i x_i|\sum_^\lambda_i = 1,\lambda_i \geq 0\}\)

輸入空間一點:\(x_0\in x\),到超平面距離

\[\frac|w\cdot x_0+b|

\]對於誤分類的資料

\[-y_i(w\cdot x_i+b)\geq 0

\]誤分類點集合\(m\),誤分類點到超平面總距離為

\[-\frac\sum_y_i(w\cdot x_i+b)

\]不考慮\(\frac\),損失函式為

\[l(w,b) = -\sum_y_i(w\cdot x_i+b)

\]求函式極小化的解

\[\undersetl(w,b) = -\sum_y_i(w\cdot x_i+b)

\]損失函式的梯度

\(\nabla_w l = -\sum_x_iy_i\)

\(\nabla_bl = -\sum_y_i\)

隨機梯度下降.選取誤分類點\((x_i,y_i)\)

\(w\leftarrow w+ \eta y_ix_i\)

\(b\leftarrow b + \eta y_i\)

\(\eta\): learning rate

\(w\leftarrow w+ \eta y_ix_i\)

\(b\leftarrow b + \eta y_i\)

最後學習到的w.b可以表示為

\(w = \sum_^\alpha_iy_ix_i\)

\(b = \sum_^\alpha_iy_i\)

\(\alpha_i >0\),當\(\eta=1\)是表示第\(i\)個樣本點被更新的次數

感知機模型:

\(f(x)=sign(\sum_^\alpha_iy_ix_i\cdot x+b)\)

\(\alpha = (\alpha_1,\alpha_2,\cdots,\alpha_n)^t\)

隨機梯度下降,對於誤分類點\((x_i,y_i)\)

\(\alpha_i \leftarrow \alpha_i+\eta\)

\(b\leftarrow b+\eta y_i\)

對偶形式中,資料樣例僅僅以內積的形式出現

\(gram\)矩陣

\(g=[x_i\cdot x_j]_\)

第二章 感知機

感知機 是根據輸入例項的特徵向量x 對其進行二類分類的線性分類模型 f x sign w,x b 感知機對應於輸入空間的分離超平面wx b 0 學習策略是極小化損失函式 損失函式對應於誤分類點到分離超平面的總距離 學習演算法是基於隨機梯度下降法的對損失函式的最優化演算法 有原始形式和對偶形式,演算法...

魚書 第二章 感知機

1.感知機 接收多個輸入訊號 x1,x2,輸出乙個訊號 y w是權重,稱為 神經元 神經元或者 節點 輸入訊號分別乘以固定的權重送入到神經元,神經元計算訊號的總和,當超過設定的某個界限時,輸出1,這也稱為 神經元被啟用 其中,這個界限稱為閾值,用 表示。感知機的中的每個輸入訊號都有其固有的權重,權重...

第二章 感知機的python實現

這裡是我的個人 本來想寫乙個關於感知機的總結,但如果要深入 涉及的東西實在太多。僅僅淺嘗輒止的話,那我就相當於照搬原文,違背了我寫文章的初衷。所以就單純地把我自己寫的感知機實現 發上來,輔助大家學習。我還提供了乙個資料生成器,可以生成訓練模型所需要的資料。簡單地對結果做了視覺化,具體繪製 見文末提供...