Scikit Learn與決策樹

2022-08-24 08:09:16 字數 1649 閱讀 4323

scikit-learn(決策樹)可以用於方法分類和回歸。

一、分類

sklearn.tree.decisiontreeclassifier

(criterion='gini', splitter='best', max_depth=none, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=none, random_state=none, max_leaf_nodes=none, min_impurity_split=1e-07, class_weight=none, presort=false)引數**

例子:

from sklearn import

tree

x = [[1, 1],[1, 1], [1, 0],[0, 1], [0, 1]]

y = [1, 1, 0, 0, 0]

clf =tree.decisiontreeclassifier(criterion='entropy')

clf =clf.fit(x, y)

#predict_proba(x, check_input=true

) **x中的分類概率

result =clf.predict([0,0])

print result

訓練後,我們可以使用匯出器以graphviz(需要單獨安裝)格式匯出樹export_graphviz

with open("

iris.dot

", 'w'

) as f:

f = tree.export_graphviz(clf, out_file=f)

然後我們可以使用的graphviz的dot工具來建立乙個pdf檔案(或任何其他支援的檔案型別)

dot -tpdf iris.dot -o iris.pdf

二、回歸

sklearn.tree.decisiontreeregressor(criterion='mse', splitter='best', max_depth=none, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=none, random_state=none, max_leaf_nodes=none, min_impurity_split=1e-07, presort=false)

其他參與與decisiontreeclassifier類似

from sklearn import

tree

x = [[1],[2],[3],[4],[5],[6]]

y = [1,2,3,4,5,6]

clf = tree.decisiontreeregressor(criterion='

mae'

)clf =clf.fit(x, y)

result = clf.predict([4])

print result

輸出:

[ 4.]

決策樹演算法實現(scikit learn)

sk learn的決策樹文件 決策樹的演算法介紹 在 mac os x 中安裝與使用 graphviz 圖形視覺化工具 決策樹歸納演算法 id3 優先選擇資訊獲取量最大的屬性作為屬性判斷結點 資訊獲取量 information gain gain a info d infor a d age屬性資訊...

Scikit learn 決策樹視覺化

平常網上看到的關於決策樹的scikit learn教程大都是直接給出容器的訓練 clf tree.decisiontreeclassifier clf clf.fit x,y clf.predict 然而有時候要的不只是 資料的結果,選擇決策樹還想要看到訓練出來的決策樹是什麼樣的。於是經過各種搜尋,...

02 25 scikit learn庫之決策樹

目錄二 decisiontreeregressor 人工智慧從入門到放棄完整教程目錄 在scikit learn庫中決策樹使用的cart演算法,因此該決策樹既可以解決回歸問題又可以解決分類問題,即下面即將講的decisiontreeclassifier和decisiontreeregressor兩個...