統計學習方法 第2章 感知機

2021-09-25 01:31:50 字數 1275 閱讀 2788

2019 june 29

感知機輸入空間: $\mathcal \subseteq \mathbf ^ $

輸出空間:$\mathcal = $

決策函式:$f ( x ) = \operatorname ( w \cdot x + b )$

$$ \operatorname ( x ) = \left\ & \\ & \end \right. $$

$\frac$:歸一化超平面法向量,令其等於 1。

原始形式

輸入:線性可分資料集

其中 $x _ \in \mathcal = \mathbf ^ $,$y _ \in \mathcal = $,$i = 1,2 , \cdots , n$,學習率 $\eta ( 0 < \eta \leqslant 1 )$;

輸出:$w, b$,感知機模型 $f ( x ) = \operatorname ( w \cdot x + b )$

選取初值 $w_0, b_0$;

在訓練集中選取資料 $\left( x_i, y_i \right)$;

如果 $y _ \left( w \cdot x _ + b \right) \leqslant 0$

轉置 2,直至訓練集中沒有誤分類點。

對偶形式

對偶形式的基本思想是將 $w$ 和 $b$ 表示為例項 $x_i$ 和標記 $y_i$ 的線性組合的形式,通過求解其係數而求得 $w$ 和 $b$。

輸入:線性可分資料集

其中 $x _ \in \mathcal = \mathbf ^ $,$y _ \in \mathcal = $,$i = 1,2 , \cdots , n$,學習率 $\eta ( 0 < \eta \leqslant 1 )$;

輸出:$\alpha, b$,感知機模型 $f ( x ) = \operatorname \left( \sum _ ^ \alpha _ y _ x _ \cdot x + b \right)$,其中 $\alpha = \left( \alpha _ , \alpha _ , \cdots , \alpha _ \right) ^ }$。

$\alpha \leftarrow 0, b \leftarrow 0$;

在訓練集中選取資料 $\left( x_i, y_i \right)$;

如果 $y _ \left( \sum _ ^ \alpha _ y _ x _ \cdot x _ + b \right) \leqslant 0$

轉置 2,直至訓練集中沒有誤分類點。

統計學習方法(第2章)感知機 學習筆記

感知機是二類分類的線性分類模型,其輸入為例項的特徵向量,感知機對應於輸入空間 特徵空間 中將例項劃分為正負兩類的分離超平面,屬於判別模型。匯入基於誤分類的損失函式,利用梯度下降法對損失函式進行極小化,求得感知機模型。感知機學習演算法分為原始形式和對偶形式,是神經網路和支援向量機的基礎。感知機定義 假...

《統計學習方法》2 感知機

感知機 perceptron 是二分類的線性分類模型,輸入為例項的特徵向量,輸出為例項的類別 取 1和 1 感知機對應於輸入空間中將例項劃分為兩類的分離超平面。感知機旨在求出該超平面,為求得超平面匯入了基於誤分類的損失函式,利用梯度下降法 對損失函式進行最優化 最優化 感知機的學習演算法具有簡單而易...

感知機 統計學習方法

一 感知機適用問題以及它的輸入,輸出,求解方法 1 感知機 perceptron 適用於二類分類問題 該分類問題是線性可分問題 2 感知機模型是線性分類模型 3 感知機的幾何解釋,感知機對應的是乙個超平面 4 輸入 例項的特徵向量 5 輸出 例項的類別,取 1和 1二值 6 求解方法 有監督學習 給...