隨機森林 知識點

2021-09-28 16:36:30 字數 1046 閱讀 6324

1.整合演算法包括

2.構造隨機森林的4個步驟

3.隨機森林用於回歸和分類

處理分類問題

對於測試樣本,森林中每棵決策樹會給出最終類別,最後綜合考慮森林內每一棵決策樹的輸出類別,以投票方式來決定測試樣本的類別

處理回歸問題

以每棵決策樹輸出的均值為最終結果

4.隨機森林的隨機性

ⅰ:樣本的隨機性,從訓練集中隨機抽取一定數量的樣本,作為每顆決策樹的根節點樣本;

ⅱ:屬性的隨機性,在建立每顆決策樹時,隨機抽取一定數量的候選屬性,從中選擇最合適的屬性作為**節點。

5.取樣和完全**

首先是兩個隨機取樣的過程,隨機森林對輸入的資料要進行行、列的取樣。

行取樣,採用有放回的方式,也就是在取樣得到的樣本集合中,可能有重複的樣本。

假設輸入樣本為n個,那麼取樣的樣本也為n個。這樣使得在訓練的時候,每一棵樹的輸入樣本都不是全部的樣本,使得相對不容易出現過擬合over-fitting。

列取樣,從m個feature中,選擇m個(m << m)。之後就是對取樣之後的資料使用完全**的方式建立出決策樹,這樣決策樹的某乙個葉子節點要麼是無法繼續**的,要麼裡面的所有樣本的都是指向的同乙個分類。

6.隨機森林不用剪枝

由於之前的兩個隨機取樣的過程保證了隨機性,所以就算不剪枝,也不會出現over-fitting

參考:

隨機森林知識點總結

隨機森林的隨機是在構建樹時對訓練資料點進行隨機抽樣,分割節點時,考慮特徵的隨機子集。隨機森林由決策樹組成,決策樹實際上是將空間用超平面進行劃分的一種方法,每次分割的時候,都將當前的空間一分為二 隨機森林生成的樹是完全生長的,便於計算每個特徵的重要程度。隨機森林思想是構建優秀的樹,優秀的樹需要優秀的特...

一些知識點的初步理解 7 隨機森林,ing

一些知識點的初步理解 7 隨機森林,ing.在機器學習中,隨機森林由許多的決策樹組成,因為這些決策樹的形成採用了隨機的方法,因此也叫做隨機決策樹。隨機森林中的樹之間是沒有關聯的。當測試資料進入隨機森林時,其實就是讓每一顆決策樹進行分類,最後取所有決策樹中分類結果最多的那類為最終的結果。因此隨機森林是...

一些知識點的初步理解 7 隨機森林,ing

在機器學習中,隨機森林由許多的決策樹組成,因為這些決策樹的形成採用了隨機的方法,因此也叫做隨機決策樹。隨機森林中的樹之間是沒有關聯的。當測試資料進入隨機森林時,其實就是讓每一顆決策樹進行分類,最後取所有決策樹中分類結果最多的那類為最終的結果。因此隨機森林是乙個包含多個決策樹的分類器,並且其輸出的類別...