《統計學習方法》筆記(四) k近鄰法

2021-07-03 13:00:10 字數 498 閱讀 4732

k-nearest neighbor

可以用來解決分類問題與回歸問題

是一種判別式模型

三要素:k值的選擇、距離度量及分類決策規則。

基本思路:給定乙個訓練集合,當測試資料到來時,根據某種距離度量找到與其最鄰近的k個例項,這k個例項中的大多數屬於哪個類別,那麼測試資料就被歸類於哪個類別。

1.模型:關於特徵空間的乙個劃分。

距離度量:歐式距離,lp距離,馬氏距離。。。

k值選擇:k值過小,近似誤差會減小,估計誤差會增大,整體模型更加複雜,易於過擬合

k值過大,簡化模型但會使近似誤差增大,會忽略有用資訊

分類決策:多少表決(其理論實質是經驗風險最小化)

2.實現

kd樹目的:使得近鄰搜尋更快

實質:是一種優於線性掃瞄的儲存結構

通常做法是依次選取座標軸對空間切分,以中位數為切分點,也有的時候先統計資料在每個維度上的方差,取最大的方向切分

演算法分為構造kd樹,和搜尋kd樹兩部分

統計學習方法筆記 K近鄰法

看完了knn演算法,感覺演算法挺簡單的,選擇k的大小,距離計算公式,分類決策三個部分就行了,並且三個部分用的東西都挺常見,沒什麼難度。後面的提到了乙個改進演算法,搜尋空間kd演算法,這樣可以幫助我們很快的找到k個最近鄰,運用中位數縮小搜尋空間,省去了對大部分資料點的搜尋。思想不難 k近鄰法是一種基本...

統計學習方法 k近鄰法

k近鄰法 knn 是一種基本的分類與回歸方法 分類這種需求,滲透到我們生活的方方面面 分類演算法可以幫助我們完成這些繁瑣的操作,並根據我們的要求不斷修正分類結果。分類演算法其實蠻多的,這裡順著書本順序,詳細講解knn演算法,再與k means k means 演算法進行簡單對比。k近鄰法是這樣乙個過...

統計學習方法 K近鄰法

k近鄰演算法簡單 直觀給定乙個訓練資料集,對新的輸入例項,在訓練資料集中找到與該例項最鄰近的k個例項,這k個例項的多數屬於某個類,就把該輸入例項分為這個類.下面先敘述k近鄰演算法,然後再討論其細節。近鄰法的特殊情況 k 1情形,稱為最近鄰演算法.對於輸入的例項點 特徵向量 x xx,最近鄰法將訓練資...