提公升演算法之AdaBoost演算法原理及其公式推導

2021-08-31 16:25:06 字數 753 閱讀 5855

1.adaboost演算法原理

adaboost是代表性的提公升演算法。對於分類問題而言,在給定訓練樣本的條件下,找到乙個弱分類器比找到乙個強分類器要簡單得多,提公升演算法就是從弱學習演算法(弱分類器)出發,反覆學習,得到一系列的弱分類器(基本分類器),然後組合這一系列的分類器,構成乙個強分類器。大多數的提公升方法都是改變訓練資料的概率分布(訓練資料的權值分布),針對不同的分布呼叫弱學習演算法學習一系列分類器。提公升演算法需要回答的兩個問題:(1)在每一輪訓練中如何改變訓練資料的權值或者概率分布(2)如何組合這一系列的弱分類器成為乙個強分類器。在adaboost中,針對問題(1),adaboost提高前一輪學習被錯誤分類的樣本的權重,降低前一輪學習被正確分類的樣本權重,使被錯誤分類的樣本由於權重的提高在下一次的訓練中得到重視。針對問題(2),adaboost採用加權多數表決的方法,即加大分類錯誤率小的分類器的權重,使其在表決中起較大作用,減少分類錯誤率高的分類器的權重,使其在表決中起到較少的作用。

2.adaboost演算法推導過程

3.adaboost演算法說明

參考文獻

1.李航《統計學習方法》

機器學習 提公升方法AdaBoost演算法

機器學習 深度學習 nlp 搜尋推薦 等 索引目錄 adaboost演算法是提公升方法中具有代表性的一種演算法,本篇博文主要學習adaboost的演算法思想以及從前向分步加法模型的角度來解釋adaboost演算法。對於提公升方法來說,其基本思路是從弱學習演算法出發,反覆學習,得到一系列弱分類器 基分...

AdaBoost元演算法與提公升樹

1.1 強學習與弱學習 提公升方法的思想是,對於乙個複雜任務,多個專家綜合的判斷所得出的結果要比乙個專家號,即三個臭皮匠賽過諸葛亮的道理。弱學習演算法是指學習的正確率比隨機猜測略好,強學習演算法不僅可以學習,還能得到很高正確率。經學者證明,強可學習和弱可學習是等價的,即同時成立。所以我們的目標是找到...

機器學習演算法 之Adaboost

統計學習方法 對adaboost演算法進行了相當精彩的介紹,尤其是後面證明adaboost演算法是前向分布加法演算法的特例,這就將adaboost演算法拉入到 統計學習 模型 策略 演算法這一框架中。1.模型 加法模型 adaboost演算法期望用一系列不同權重的基函式的和來構成最終的分類器。2.策...