理解感知機從原始形式到對偶形式是一種怎樣的思想

2021-10-25 01:26:38 字數 643 閱讀 1133

感知機原理這篇部落格寫的很棒:

在知乎上我找到了乙個通俗易懂的回答:

我覺得就是轉化,這個問題的最小化不好求,那麼就轉化為另乙個問題的最大化(這兩個問題存在某種關係,他們都逼近某個值)。舉個不恰當的例子,假設你在二樓,想知道二樓地板到地面的距離,不容易求的話,就轉化為地面到一樓天花板的距離。

這個時候我大概明白「對偶」是一種怎樣的思想,就是「換個角度思考問題」的思想。

正如《統計學習方法》中陳述的:

對偶形式的基本想法是,將w

ww和b

bb表示為例項x

ix_i

xi​和標記y

iy_i

yi​的線性組合的形式,通過求解其係數而求得w

ww和bbb。

其實這種思想伴隨我們很久了,甚至高中數學課本上都會原文講到這個,只是我們當時僅僅把它當作乙個知識來學習,而非一種思想,以至於畢業後忘得一乾二淨,當再次遇到時,形同陌路。有時候並不是書到用時方恨少,而是讀書沒有讀到其意自現。

《統計學習方法》

對偶 (數學術語):

中學數學中的對偶關係:

如何理解對偶問題?

線性規劃(運籌學術語)

約束最優化問題:

感知機學習演算法的原始形式和對偶形式

原始形式和對偶形式是從兩個方面去計算梯度下降的問題,兩種方法找誤分點的個數是一樣的,區別在於,找到乙個誤分點時兩者接下來的計算方法 n為訓練集大小,n為特徵數量 1 對偶形式 掃一遍n,計算每條資料在之前被加了幾 ai 次 當 取1時,ai相當於第i組資料的梯度xiyi被加了幾次,找到乙個誤分點後直...

感知機的對偶形式

李航的統計學習方法上寫的不是很詳細,這個部落格寫的還可以。自己嘗試把感知機對偶形式的 寫了一下,假設學習率 coding utf 8 import numpy as np 感知機對偶形式學習演算法demo data np.array 3,3,1 4,3,1 1,1,1 生成資料 x data dat...

感知機學習演算法的對偶形式

感知機學習演算法的對偶形式,演算法2.2參考李航 統計學習方法 書中第二章的演算法 clear all clcx 3,3 4,3 1,1 y 1,1,1 訓練資料集及標記 learnrate 1 學習率 0,1 alpha zeros 1,size x,1 b 0 alpha和b的初值 g x x ...