機器學習之決策樹(下)

2021-09-27 18:36:02 字數 918 閱讀 6157

在決策樹中有乙個很重要的概念就是深度

沒錯決策樹很容易過擬合

從iris來看下所謂的過擬合環境

匯入包

import numpy as np

import pandas as pd

import matplotlib.pyplot as plt

import matplotlib as mpl

from sklearn import tree

from sklearn.tree import decisiontreeclassifier

from sklearn.model_selection import train_test_split

from sklearn.metrics import accuracy_score

from sklearn.datasets import load_iris

import pydotplus

mpl.rcparams['font.sans-serif'] = ['simhei']

mpl.rcparams['axes.unicode_minus'] = false

iris_feature_e = 'sepal length', 'sepal width', 'petal length', 'petal width'

iris_feature = '花萼長度', '花萼寬度', '花瓣長度', '花瓣寬度'

iris_class = 'iris-setosa', 'iris-versicolor', 'iris-virginica'

# 載入資料

x = pd.dataframe(load_iris().data)

y = load_iris().target

是二維的,所以只能使用兩個特徵

機器學習 決策樹 下

在機器學習中,隨機森林由許多的決策樹組成,因為這些決策樹的形成採用了隨機的方法,因此也叫做隨機決策樹。隨機森林中的樹之間是沒有關聯的。當測試資料進入隨機森林時,其實就是讓每一顆決策樹進行分類,最後取所以決策樹中分類結果最多的那類為最終的結果。因此隨機森林時乙個包含多個決策樹的分類器,並且其輸出的類別...

機器學習之決策樹

在這裡,我想以更直觀的方式幫助各位理解 掌握並且運用 注意 是運用 決策樹,從而為機器學習作鋪墊。ps 但還是希望大家稍微知道決策樹大概是什麼樣子。1.根結點 root node 沒有入邊,但有零條或多條出邊 2.內部結點 internal node 恰有一條入邊和 兩條或多條出邊 3.葉結點 le...

機器學習之決策樹

決策樹是很常見的機器學習分類演算法,竟然叫決策樹,那麼它的模型其實就像樹一樣。通過對樣本集的學習,挖掘出有用的規則。對於程式設計師來說或許以條件語句來看就更好理解了,決策樹可以看成是多個if then條件語句的集合。這種模型等同於我們寫的條件語句,所以它的 分類速度是很快的。來個例子了解下決策樹分類...