AI 統計學習(2) 模型 K近鄰

2022-06-27 10:15:13 字數 1026 閱讀 3265

k近鄰演算法

k近鄰模型解決的問題:二分類、多分類、回歸。

k近鄰模型適用條件:非線性可分,區域性資訊,用完後需要訓練集資料 儲存方法影響結果。沒有很強的假設。

k近鄰演算法的模型複雜度體現在哪?什麼情況下會造成過擬合?

模型複雜度體現在k值上

k值比較小的時候容易造成過擬合

k值比較大的時候容易造成欠擬合。

1.什麼是k近鄰,三要素 距離度量、k值選擇、分類決策規則

2.策略:損失函式

3.求解演算法

1.什麼是k近鄰,三要素 (距離度量、k值選擇、分類決策規則)

附近的k個點是什麼,那被**的點就是什麼。

模型 k近鄰方法是沒有顯示模型形式的。

鄰域裡是什麼,被**值就是什麼。

1.1距離度量

度量一般分三種

p=1,p=2,p=無窮 p=2就是歐式距離.

那麼其他兩種存在的意義是什麼?

1.2 k值選擇

應該怎麼選?

交叉驗證 分訓練集-驗證集 驗證集(真實類別)中選不同k值,對比後確定k值。  

1.3分類決策規則

多數表決

找損失最小

2.策略:損失函式

3.求解演算法:kd樹

儲存資料的方法影響**結果。

統計學習方法 k近鄰法

k近鄰法 knn 是一種基本的分類與回歸方法 分類這種需求,滲透到我們生活的方方面面 分類演算法可以幫助我們完成這些繁瑣的操作,並根據我們的要求不斷修正分類結果。分類演算法其實蠻多的,這裡順著書本順序,詳細講解knn演算法,再與k means k means 演算法進行簡單對比。k近鄰法是這樣乙個過...

統計學習方法 K近鄰法

k近鄰演算法簡單 直觀給定乙個訓練資料集,對新的輸入例項,在訓練資料集中找到與該例項最鄰近的k個例項,這k個例項的多數屬於某個類,就把該輸入例項分為這個類.下面先敘述k近鄰演算法,然後再討論其細節。近鄰法的特殊情況 k 1情形,稱為最近鄰演算法.對於輸入的例項點 特徵向量 x xx,最近鄰法將訓練資...

統計學習方法 k 近鄰演算法

所謂k 近鄰 knn 是基本且簡單的分類與回歸方法,說的就是每個樣本的分類都可以用它最接近的k個鄰居來代表。1 對給定的訓練例項點和輸入例項點,首先確定輸入例項點的k個最近鄰訓練例項點,然後利用這k個訓練例項點的類的多數來 輸入例項點的類。2 k近鄰模型對應於基於訓練資料集對特徵空間的乙個劃分。k近...