整合演算法學習筆記

2021-09-29 02:02:14 字數 867 閱讀 1555

bagging

樹的數量

boosting模型

把多個基礎演算法一起拿來用,就是整合演算法···

目的就是讓結果更加準確,讓分類器的效果更好。

bagging模型的全稱:bootstrap aggregation。含義大概就是並行的去訓練一堆分類器,各個分類器之間不存在強依賴關係然後結果拿來取均值。

隨機森林是比較典型的bagging演算法。

缺點

理論上越多的樹效果會越好,但實際上基本超過一定數量就差不多上下浮動了,圖中80顆樹的效果也明顯大於90顆。所以,什麼還是要合適的數量。

什麼數量最適合?不知道····自己試··· 正對應了它的缺點:計算過程是個黑盒子。

前面說了,從弱學習器開始加強,通過加權來進行訓練就是boosting的過程。

典型代表:adaboost, xgboost。

基本思想是「逐步強化」。計算過程為:

一次切一刀,多切幾刀就分開了。

把樣本分成n份,使用n個分類器對樣本進行計算;計算的結果作為下一層分類器的輸入;可以堆疊各種各樣的分類器(knn,svm,rf等等)。不斷迭代,直到達到迭代的次數限制為止。缺點是效率低。

整合演算法 學習筆記

與神經網路相媲美。非常強大!一般都是對決策樹整合。隨機森林與stacking整合演算法。整合演算法 多演算法融合。決策樹 容易發生過擬合。一顆樹不好,就多顆樹,森林。怎麼整合?兩種方法主流,其他adaboost,xgboost 獨立並行訓練,最後取平均值。隨機森林,基礎決策樹 稱為弱學習器,整合之後...

機器學習 整合演算法

整合演算法用一些相對較弱的學習模型獨立地就同樣的樣本進行訓練,然後把結果整合起來進行整體 整合演算法的主要難點在於究竟整合哪些獨立的較弱的學習模型以及如何把學習結果整合起來。這是一類非常強大的演算法,同時也非常流行。是構建多個學習器,然後通過一定策略結合把它們來完成學習任務的,常常可以獲得比單一學習...

機器學習python整合演算法

from pandas import read csv from sklearn.model selection import kfold from sklearn.model selection import cross val score from sklearn.ensemble import...