機器學習中的核方法

2021-09-21 02:16:24 字數 1160 閱讀 7713

乙個複雜的模式分類問題,在高維空間中線性可分的概率比在低微空間中更大。

二維空間中有4個點,其中是一類,是一類,在二維空間中這4個點不是線性可分得。但是如果把這四個點對映到乙個合適的三維空間,比如將(1, 1)對映到(1, 1, 1),(-1, -1)對映到(-1, -1, 1),將(-1, 1)與(1, -1)對映到(-1, 1, -1)與(1, -1, -1),則可以發現,這四個點在三維空間中是線性可分的。

假設現有的資料是 n

nn 維的,而且它是線性不可分的,我們需要找到乙個對映 φ

\varphi

φ 將現有的 n

nn 維空間的資料對映到 p

pp 維,n

<

pn < p

n<

p。找到對映 φ

\varphi

φ 是困難的,但是實際上,我們不需要知道 φ

\varphi

φ 的具體形式,只需要知道高維空間(希爾伯特空間-完備的內積空間)中的乙個內積 <φ(

xi),

φ(xj

)>

<\varphi(x_i), \varphi(x_j)>

<φ(

xi​)

,φ(x

j​)>

即可,這個內積就定義為核k

並不是所有的二元函式都可以成為核函式,這裡考慮正定核,而且是對稱核(在實數空間中需要考慮對稱,在酉空間中不需要考慮)。

對於二元函式k,k滿足對稱性,即k(x

,y)=

k(y,

x)

k(x,y) = k(y,x)

k(x,y)

=k(y

,x),若任意的

x1​,…,

xn​} 包含於x,gram矩陣 [k(

xi,x

j)

][k(x_i, x_j)]

[k(xi​

,xj​

)]是半正定的,則稱函式k是正定核,k是希爾伯特空間中的乙個正定核函式。矩陣 [k(

xi,x

j)

][k(x_i, x_j)]

[k(xi​

,xj​

)]是n ×n

n\times n

n×n的對稱矩陣。

常用的核函式有高斯核,多項式核,線性核,sigmoid核等。

機器學習中的核技巧

真正接觸核方法應該是在 svm 正常情況下,感知機演算法和支援向量機都是預設資料是線性可分的,這類問題叫做線性分類問題。當資料線性不可分的時候,但高維可分 這個不理解可以多看看書 我們仍然想用線性分類的方法去解決,這個時候就需要用非線性變換將非線性問題轉換成線性問題。於是,我們得到求解非線性分類問題...

馬普所2008 機器學習中的核方法(上)

hofmann t sch?lkopf b smola a j kernel methods in machine learning j annals of stats,2008,36 3 1 integrating structured biological data by kernel maxi...

機器學習之核函式

建議看這個,中文的 這裡面會講解kernel 的基本概念,svm,lda,lr,pca等如何使用kernel版本 本文大致講解核函式的定義,限制,使用等 機器學習中,對於線性可分的情況研究的比較透徹,可以採用svm lr 感知機等成熟的機器學習模型,但是很多情況是我們希望我們的模型學習非線性的模型。...