《scikit learn》隨機森林之回歸

2021-10-18 19:06:53 字數 978 閱讀 1665

今天我們學習下隨機森林做回歸的用法

話不多說直接上測試**,看的更加清晰,總體上和回歸樹是一樣的使用流程

from sklearn.datasets import load_boston

from sklearn.model_selection import cross_val_score

from sklearn.ensemble import randomforestregressor

import sklearn

# 載入連續型資料,boston房價

boston = load_boston(

)# 定義隨機森林回歸樹

reg = randomforestregressor(criterion=

'mse'

, n_estimators=

100, random_state=0)

print

(sorted

(sklearn.metrics.scorers.keys())

)# 模型的所有的評估打分指標, neg_mean_squared_error 也在其中

# 使用交叉驗證介面進行測試

scores = cross_val_score(reg, boston.data, boston.target, cv=

10, scoring=

"neg_mean_squared_error"

)# scoring 預設 r平方

print

(scores)

reg = reg.fit(boston.data, boston.target)

# 使用predict介面,看看**的效果噻

print

(boston.target[0:

10])res = reg.predict(boston.data)

print

(res[0:

10])

scikit learn 隨機森林

在隨機森林中,集合中的每棵樹都是根據訓練集中的替換樣本 即引導樣本 構建的。此外,在樹的構造過程中拆分每個節點時,可以從所有輸入要素或size的隨機子集中找到最佳拆分 max features。這兩個隨機性 的目的是減少森林估計量的方差。實際上,單個決策樹通常表現出較高的方差並且傾向於過度擬合。森林...

scikit learn中的隨機森林模型

和決策樹模型類似,scikit learn中的隨機森林模型也提供了基於普通decision tree的random forest學習器和基於隨機化extra tree的extratrees學習器。鑑於decision tree和extra tree差別甚小,本文以random forest為例進行介...

scikit learn 極限森林

from sklearn.ensemble import extratreesclassifier,randomforestclassifier from sklearn.tree import decisiontreeclassifier from sklearn.model selection ...