AdaBoost演算法詳解

2021-07-25 12:41:34 字數 2450 閱讀 8642

adaboost 演算法介紹

adaboost演算法本身是通過改變資料分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的準確率,來修改每個樣本的權值。將修改過權值的新資料集送給下層分類器進行訓練,最後將每次得到的分類器最後融合起來,作為最後的決策分類器。

adaboost演算法

訓練資料集

初始化訓練資料的權值分布

=1,2,…,m

使用具有權值分布

dm的訓練資料集學習,得到基本分類器:

計算gm(x)

在訓練資料集上的分類誤差率:

更新訓練資料集的權值分布:

m是規範化因子:

m(x)

的係數構建基本分類器的線性組合

說明:假設訓練資料集具有均勻的權值分布,即每個訓練樣本在基本分類器的學習中作用相同,

這一假設保證第

1步能夠在原始資料上學習基本分類器g1

(x)

adaboost

反覆學習基本分類器,在每一輪m=

1,2,…,m

順次地執行下列操作: 1.

使用當前分布

dm加權的訓練資料集,學習基本分類器

gm(x)。2.

計算基本分類器gm

(x)在加權訓練資料集上的分類誤差率:

這裡,w

mi表示第

m輪中第

i個例項的權值.

這表明,gm

(x)在加權的訓練資料集上的分類誤差率是被g

m(x)

誤分類樣本的權值之和,

由此可以看出資料權值分布dm

與基本分類器gm

(x)的分類誤差率的關係

3. 計算基本分類器gm

(x)的係數am。

am表示gm

(x)在最終分類器中的重要性。 當

em≤1/2時,a

m≥0,並且am隨著

em的減小而增大,

所以分類誤差率越小的基本分類器在最終分類器中的作用越大。

4.更新訓練資料的權值分布為下一輪作準備

被基本分類器

gm(x)

誤分類樣本的權值得以擴大,而被正確分類樣本的權值卻得以縮小

誤分類樣本在下一輪學習中起更大的作用。

不改變所給的訓練資料,而不斷改變訓練資料權值的分布,使得訓練資料在基本分類器的學習中起不同的作用

線性組合

f(x)實現m

個基本分類器的加權表決。 ?

adaboost

的例子

弱分類器由

x或x>v

產生, 

其閾值v

使該分類器在訓練資料集上分類誤差率最低

初始化資料權值分布

=1在權值分布為d1

的訓練資料上,閾值v取

2.5時分類誤差率最低,故基本分類器為

(x)在訓練資料集上的誤差率e1

=p(g1(x

i)≠yi)

=0.3。

計算g1(x)

的係數:

更新訓練資料的權值分布:

分類器sign[f

1(x)]

在訓練資料集上有

3個誤分類點。 對於

m= 2

在權值分布為d2

的訓練資料上,閾值v是

8.5時分類誤差率最低,基本分類器為

(x)在訓練資料集上的誤差率e2

=0.2143 計算

a2=0.6496

更新訓練資料權值分布

分類器sign[f

2(x)]

在訓練資料集上有

3個誤分類點。 對於

m = 3

:在權值分布為d3

的訓練資料上,閾值v是

5.5時分類誤差率最低,基本分類器為

a3=0.7514

更新訓練資料的權值分布d4

=(0.125,0.125,0.125,0.102,0.102,0.102,0.065,0.065,0.065,0.125)

得到:

AdaBoost原理詳解

寫一點自己理解的adaboost,然後再貼上面試過程中被問到的相關問題。按照以下目錄展開。當然,也可以去我的部落格上看 面經adaboost是典型的boosting演算法,屬於boosting家族的一員。在說adaboost之前,先說說boosting提公升演算法。boosting演算法是將 弱學習...

AdaBoost演算法原理

每個haar特徵對應看乙個弱分類器,但並不是任伺乙個haar特徵都能較好的描述人臉灰度分布的某一特點,如何從大量的haar特徵中挑選出最優的haar特徵並製作成分類器用於人臉檢測,這是adaboost演算法訓練過程所要解決的關鍵問題。paul viola和michael jones於2001年將ad...

AdaBoost演算法梳理

在boosting family中,最具代表性的實現就是adaboost。adaboost是英文 adaptive boosting 自適應增強 的縮寫,它的自適應在於 前乙個基本分類器被錯誤分類的樣本的權值會增大,而正確分類的樣本的權值會減小,並再次用來訓練下乙個基本分類器。同時,在每一輪迭代中,...