統計學習方法(二) 感知機學習方法的對偶形式

2022-02-01 10:41:21 字數 881 閱讀 7168

我們知道,在感知機的原始形式中,\(w\)和\(b\)通過以下形式更新:

\[w \leftarrow w+\eta y_ x_

\]\[b \leftarrow b + \eta y_i

\]假設點\((x_i, y_i)\)在學習過程中被使用了\(n_i\)次(也即被分類錯誤了\(i\)次),那麼最後學習到的\(w, b\)可以表示為:

\[w = \sum_^ n_i \eta y_i x_i

\]\[b = \sum_^ n_i \eta y_i

\]顯然,當\(n_i\)越大,表示這個點被分類錯誤的次數越多,說明這個點位於超平面附近.

把上述兩式帶入到原始形式:$f(x)=sign(w \cdot x + b) $ 中,得到:

\[f(x)=sign(\sum_^ n_i \eta y_i x_i \cdot x + \sum_^ n_i \eta y_i)

\]現在所要學習的引數就不再是\(w\)和\(b\)了,而是\(n_i\).

相應的,演算法部分被改寫為:

(1)$$令\forall n_i = 0; $$

(2)$$在訓練集中選取資料(x_i, y_i); $$

(3)$$ 如果 y_i \left (\sum_^ n_j \eta y_j x_j \cdot x_i + \sum_^ n_j \eta y_i \right) \leqslant 0: $$

\[n_i \leftarrow n_i + 1;

\](4)$$轉至(2)直到沒有誤分類的資料點.$$

觀察演算法中的不等式的左半部分,$x_j \cdot x_i $即訓練集中的所有資料點的特徵向量與當前選中資料點的特徵向量內積,在訓練時可以預先算出,儲存於gram矩陣,加快運算速度,這就是感知機對偶形式的意義所在。

統計學習方法(二) 感知機

學習目標 損失函式推導過程 最終優化函式 min l w,b 推導過程 假設空間 即特徵空間中的所有線性分類器。模型的複雜度主要體現在例項特徵向量的維度d上或者特徵數量上。1 用python 自程式設計實現感知機模型,對訓練資料集進行分類,並對比誤分類點選擇次序不同對最終結果的影響。可採用函式式程式...

統計學習方法二 感知機

一 什麼是感知機?感知機是二類分類的線性分類模型,其輸入為例項的特徵向量,輸出為例項的類別,取 1和 1二值。特性 1 二分類 2 線性分類模型 3 判別模型模型 4 假設空間 定義在特徵空間 有時可以理解為輸入空間 中的所有線性分類模型或線性分類器,即函式集合 4 學習目的 求出分離超平面二 感知...

感知機 統計學習方法

一 感知機適用問題以及它的輸入,輸出,求解方法 1 感知機 perceptron 適用於二類分類問題 該分類問題是線性可分問題 2 感知機模型是線性分類模型 3 感知機的幾何解釋,感知機對應的是乙個超平面 4 輸入 例項的特徵向量 5 輸出 例項的類別,取 1和 1二值 6 求解方法 有監督學習 給...