隨機森林演算法原理 機器學習演算法 隨機森林

2021-10-11 16:03:21 字數 812 閱讀 6399

隨機森林是一種通用的機器學習方法,能夠處理回歸和分類問題。它還負責資料降維、缺失值處理、離群值處理以及資料分析的其他步驟。它是一種整合學習方法,將一組一般的模型組合成乙個強大的模型

我們通過適用隨機的方式從資料中抽取樣本和特徵值,訓練多個不同的決策樹,形成森林。為了根據屬性對新物件進行分類,每個數都給出自己的分類意見,稱為「投票」。在分類問題下,森林選擇票數最多的分類;在回歸問題下則適用平均值的方法。

隨機森林是基於bagging方法的整合模型,bagging的示例如下:

若每個分類模型都是決策樹,那就構成了隨機森林。bagging方法通過抽樣的方式獲得多份不同的訓練樣本,在不同的訓練楊版本上訓練決策樹,從而降低了決策樹之間的相關性。同時還通過特徵的隨機選取,特徵閾值的隨機選取兩種方式產生隨機性,進一步降低決策樹之間的相關性。

優點:

隨機森林輸入替換後資料樣本稱為自助抽樣。其中三分之一的資料不用於訓練但是可用來**,被稱為袋外樣本。在這些袋外樣本上估計的誤差成為袋外誤差。
缺點:隨機森林優缺點參考:

一文看懂隨機森林 - random forest(4個實現步驟+10個優缺點)​easyai.tech

《機器學習演算法 6 隨機森林》

隨機森林演算法是通過訓練多個決策樹,綜合多個樹的結果進行投票,從而實現分類。1.生成單棵決策樹 2.生成t顆決策樹 3.部分 4 其他 sklearn randomforestclassifier n estimators 100 引數 隨機森林中需要訓練多個樹,所以決策樹有的引數它也有。n est...

機器學習筆記14 隨機森林演算法

隨機且有放回地從訓練集中的抽取n個訓練樣本,資料集的樣本總數為n,根據這n個樣本建立乙個決策樹,重複上述步驟n次,建立n棵決策樹 每棵樹的訓練集都是不同的,而且裡面包含重複的訓練樣本 從資料集中隨機選擇k個特徵,共m個特徵 其中k m 根據這k個特徵建立決策樹,重複上述步驟n次,建立n棵決策樹 對每...

隨機森林(Random Forest)演算法原理1

整合學習 ensemble 思想是為了解決單個模型或者某一組引數的模型所固有的缺陷,從而整合起更多的模型,取長補短,避免侷限性。隨機森林就是整合學習思想下的產物,將許多棵決策樹整合成森林,並合起來用來 最終結果。首先,介紹自助法 bootstrap 這個奇怪的名字 於文學作品 the adventu...