整合演算法原理 Adaboost

2021-09-25 16:38:24 字數 1140 閱讀 1123

有位前輩總結得很清晰有條理,借鑑一下:

簡單把裡面我自己要備忘的要點概括一下:

1)基本原理:boosting演算法的工作機制是首先從訓練集用初始權重訓練出乙個弱學習器1,根據弱學習的學習誤差率表現來更新訓練樣本的權重,使得之前弱學習器1學習誤差率高的訓練樣本點的權重變高,使得這些誤差率高的點在後面的弱學習器2中得到更多的重視。然後基於調整權重後的訓練集來訓練弱學習器2.,如此重複進行,直到弱學習器數達到事先指定的數目t,最終將這t個弱學習器通過集合策略進行整合,得到最終的強學習器。

2)演算法要點大綱:

1)如何計算學習誤差率e?

2) 如何得到弱學習器權重係數α?

3)如何更新樣本權重d?

4) 使用何種結合策略?

只要是boosting大家族的演算法,都要解決這4個問題。

3)演算法流程:

這裡我們對adaboost二元分類問題演算法流程做乙個總結。

輸入為樣本集t=,輸出為,弱分類器演算法, 弱分類器迭代次數k。

輸出為最終的強分類器f(x)

1) 初始化樣本集權重為

2) 對於k=1,2,…k:

a) 使用具有權重dk的樣本集來訓練資料,得到弱分類器gk(x)

b)計算gk(x)的分類誤差率

c) 計算弱分類器的係數

d) 更新樣本集的權重分布

3) 構建最終分類器。

4)演算法總結:

理論上任何學習器都可以用於adaboost.但一般來說,使用最廣泛的adaboost弱學習器是決策樹和神經網路。對於決策樹,adaboost分類用了cart分類樹,而adaboost回歸用了cart回歸樹。

這裡對adaboost演算法的優缺點做乙個總結。

adaboost的主要優點有:

1)adaboost作為分類器時,分類精度很高

2)在adaboost的框架下,可以使用各種回歸分類模型來構建弱學習器,非常靈活。

3)作為簡單的二元分類器時,構造簡單,結果可理解。

4)不容易發生過擬合

adaboost的主要缺點有:

1)對異常樣本敏感,異常樣本在迭代中可能會獲得較高的權重,影響最終的強學習器的**準確性。

整合學習原理 Adaboost

整合學習通過從大量的特徵中挑出最優的特徵,並將其轉化為對應的弱分類器進行分類使用,從而達到對目標進行分類的目的。它是一種迭代演算法,其核心思想是針對同乙個訓練集訓練不同的分類器 弱分類器 然後把這些若分類器集合起來,構成乙個更強的最終分類器 強分類器 其演算法本身是通過改變資料分布來實現的,它根據每...

AdaBoost演算法原理

每個haar特徵對應看乙個弱分類器,但並不是任伺乙個haar特徵都能較好的描述人臉灰度分布的某一特點,如何從大量的haar特徵中挑選出最優的haar特徵並製作成分類器用於人臉檢測,這是adaboost演算法訓練過程所要解決的關鍵問題。paul viola和michael jones於2001年將ad...

AdaBoost演算法原理

演算法原理 adaboost 演算法針對不同的訓練集訓練同乙個基本分類器 弱分類器 然後把這些在不同訓練集上得到的分類器集合起來,構成乙個更強的最終的分類器 強分類器 理論證明,只要每個弱分類器分類能力比隨機猜測要好,當其個數趨向於無窮個數時,強分類器的錯誤率將趨向於零。adaboost 演算法中不...