面試必備 SVM優點解析

2021-10-07 02:08:38 字數 1807 閱讀 8583

支援向量機(svm)的原始演算法

基本思路:間隔最大化,直觀解釋是能以最大的置信度對訓練資料集進行分類。

推導步驟

(1)構建約束優化問題

(2)將幾何間隔用函式間隔表示,並令函式間隔等於1

(3)將最大化問題轉化為最小化問題,即凸二次規劃(convex quadratic programming)問題。

支援向量機(svm)的對偶演算法

推導步驟

(1)引入拉格朗日乘子,構建拉格朗日函式,將極小極大的原始問題轉換為極大極小的對偶問題:

(2)求解對偶問題

支援向量機(svm)的優點

(1)對偶演算法(dual algorithm)

應用拉格朗日對偶性,通過求解對偶問題(dual problem)得到原始問題(primal problem)的最優解。

優點:因為在實際computer計算時採用對偶演算法(所以首先要求出與樣本數相同個數的拉格朗日乘子,而由於乘子為零的項對模型無任何影響,只有乘子不為零的項即支援向量才會對最後模型的表示式產生影響),故svm的計算複雜度與樣本個數有關,與特徵維度無關,其適用於特徵多、樣本少的分類任務

(2)間隔最大化or合頁損失函式(hinge loss)

間隔最大化的直觀解釋:以最大的置信度對訓連資料集進行分類,提高模型的泛化能力l。

支援向量機(svm)還有另外一種解釋:即最小化如下損失函式。與感知機(perceptron)略有不同:感知機的損失函式是所有誤分類點到分離超平面的函式距離之和;而支援向量機的損失函式則是合頁損失函式加上正則項。

·感知機的損失函式:

svm的損失函式:

合頁損失函式的圖形:

優點:可以得到特徵空間上唯一間隔最大的分類器。

(3)核函式(kernel function)

面試必備 XGBoost優點解析

1.二階導數資訊 gbdt在優化時只用到了一階導數資訊,而xgboost則對損失函式進行了二階泰勒展開,同時用到了一階和二階導數。2.防止過擬合 1 正則項 xgboost在代價函式裡新增了正則項,用於控制模型的複雜度。正則項包括葉子結點的個數以及葉子節點值的l2範數。從bias variance ...

面試疑難點解析

list,set,map,有什麼區別?list和set實際上市實現了collection介面,那麼collection介面的原理你能簡單描述一下嗎?list介面可以插入多個null值,並且重複值,而且list是乙個有序的集合。set是乙個不可重複的集合,裡面的元素都只出現,最多隻出現1次,並且set...

面試必備 作用域 作用域鏈 預解析

1.變數分為區域性變數和全域性變數,2.作用域 就是變數的使用範圍 所以,作用域也分為區域性作用域和全域性作用域 3.js中沒有塊級作用域,也就是說 一對大括號 定義的變數,這個變數可以在大括號外面使用。栗子1 栗子2 栗子3 4.函式中定義的變數是區域性變數 5.作用域鏈 變數的使用,從裡向外,層...