白話一下什麼是決策樹模型

2021-06-27 03:16:49 字數 3118 閱讀 4634

有一天,小明無聊,對宿舍玩cs的舍友進行統計,結果剛記下四行,被舍友認為影響發揮,給踢到床下去了,讓我

們看看可憐的小明的記錄:

-----------------------------

** |

子彈數量 |

血 |行為

-----------------------------

機槍 |

多| 少 |

戰鬥機槍 |

少| 多 | 逃跑

小刀 |

少| 多 |

戰鬥小刀 |

少| 少 | 逃跑

-----------------------------

為了對得起小明記錄的這四條記錄,我們對其進行決策樹分析,從資料中看:

1. 如果乙個玩家子彈很多,那麼即使血少他也會戰鬥,如果子彈少的話,即使血多,他也會逃跑隱蔽起來;

2. 那我們再看子彈少的情況下,**靠刀子,當血多時候,他還是會打一打得,但是血少,就立即逃跑隱蔽了。

這是我們大腦直覺上去分析,既然本文我是想聊一聊決策樹,那麼我們就用決策樹來對小明的這些資料小試牛刀一下,順便來慰藉一下小明(從小到大我們已經看過無數的小明了,這裡再借用一下大度的小明)。

我們現在將資料分為兩塊:

x =

y =

我們建立這顆決策樹的目的就是,讓計算機自動去尋找最合適的對映關係,即:y = f(x),所謂聽上去大雅的「資料探勘」學科,幹得也差不多就是這回事,x我們稱之為樣本,y我們稱之為結果(行為/類)。

樣本是多維的,x = ,如本例:x = ,我們就是要通過這些不同維度的觀測記錄資料,和應對的不同結果,找到規律(對映關係),舉個例子:

x = -> y =

x = -> y =

這樣來說,x的多維不同的資料,大個比方,更像是很多大臣,那麼我們就是要根據這些大臣的意見,來決策,如本例:

>> 左大臣:**型別

>> 中大臣:子彈數量

>> 右大臣:血

這些大臣每個人都有想法,左右著皇帝繼續戰鬥還是撤退,但是三個也不能全信,那麼我們就要根據他們的陳年老帳(訓練樣本)來評判他們的話語的重要性,當然,優先順序高的肯定話語是有重量的,我們先提前來預覽一下這個例子訓練出來的決策樹的樣子:

這個根據小明的資料訓練出來的決策樹是不是和我們剛才拍腦門分析出來的結果差不多呢?看,子彈多就開打,子彈少,在看看用什麼**,如果又沒子彈又用機槍,那鐵定跑,如果用小刀,在掂量一下自己血厚不厚,厚則打,不厚則逃,看來決策樹分析的結果還是可以的啊,接下來,我們來研究研究,計算機(這個只會重複人們給它設定的**的傢伙)是如何實現這樣的分析的。

既然是三個大臣提意見,那麼我們要分析一下歷史資料(訓練資料)他們哪個話更靠譜:

我們先單純的看看左大臣的歷史戰績(統計訓練樣本):

機槍 -> 戰鬥

機槍 -> 逃跑

小刀 -> 戰鬥

小刀 -> 逃跑

用機槍,你戰鬥逃跑的概率都是50%,用刀子,你亦似打似逃!看來這個大臣立場不堅定啊!

再看看中大臣的:

子彈多 -> 戰鬥

子彈少 -> 逃跑

子彈少 -> 戰鬥

子彈少 -> 逃跑

用機槍,你戰鬥概率是100%,用刀子,你33.3%打,你66.6%撤!這位大臣似乎堅定了一些。

再看看右大臣的:

血少 -> 戰鬥

血多 -> 逃跑

血多 -> 戰鬥

血少 -> 逃跑

和左大臣一樣,立場不堅定,50:50啊!

這樣,中大臣的話的重量就提公升了,因此決策書的第一層就重用中大臣吧(中大臣變成一品大員)

計算機是怎麼來做到這一步的呢?且讓我一步一步講:

決策樹訓練中,有乙個很重要的尺子,來衡量大臣的可信度,這個尺子,就是資訊理論的熵(entropy),這個熵是何許人也,竟然朝廷大臣的可信度竟然用次來衡量,讓我們對他做個自我介紹吧:

熵,洋名為(entropy),乃測量資訊的混亂程度為職,縱橫科學界各門學術之中,為人低調,儉樸,就乙個很短的公式:e = sum(-p(i)*log(p(i))),i=1:n(n類結果,如本例兩種,戰鬥或逃跑),當資訊一致,所有樣本都屬於乙個類別i,那麼熵為0,如果樣本完全隨機,那麼熵為1,表明這個臣子對這種狀態的**就是胡言亂語。

ok,熵,告訴我你對這個資料的看法:

e(機槍) = -(1/2)log2(1/2) - (1/2)log(1/2) = 0.5 + 0.5 = 1

e(小刀) = -(1/2)log2(1/2) - (1/2)log(1/2) = 0.5 + 0.5 = 1

e(子彈多) = -(1/1)log2(1/1) - (0/1)log(0/1) = 0 + 0 = 0

e(子彈少) = -(1/3)log2(1/3) - (2/3)log(2/3) = 0.5283 + 0.39 = 0.9183

e(血多) = -(1/2)log2(1/2) - (1/2)log(1/2) = 0.5 + 0.5 = 1

e(血少) = -(1/2)log2(1/2) - (1/2)log(1/2) = 0.5 + 0.5 = 1

那麼我們怎麼用這個熵來衡量大臣(每維資料)的可信度呢,這裡還要再引出一位仁兄,其是熵的上級,他熟知熵的能力,很會用熵,他就是資訊增益(information gain),我們來看看這位上級是如何用熵來衡量的:

gain(sample,action) = e(sample) - sum(|sample(v)|/sample * e(sample(v)))

ok,information gain,說說你是怎麼評估這個例子的三位大臣的!

gain(**型別) = e(s) - (2/4)*e(機槍) - (2/4)*e(小刀) = 1 - (2/4)*1 - (2/4)*1 = 0

gain(子彈數量) = e(s) - (1/4)*e(子彈多) - (3/4)*e(子彈少) = 1 - (1/4)*0 - (3/4)*0.9183 = 0.3113

gain(血量) = e(s) - (2/4)*e(血多) - (2/4)*e(血少) = 1 - (2/4)*1 - (2/4)*1 = 0

接著,計算機通過資訊增益結果,選擇最大的,作為一品大員

且看一品大員對子彈多的情況下料事如神(暫且不說本例樣本少),但是其在子彈少的情況下,決策還是不行的,那麼,再用同樣的方法,再去選擇二品,三品,這就是決策樹的訓練,呵呵,不知有沒有幫助各位理解

機器篇 決策樹 一 簡要介紹一下決策樹

返回主目錄 返回決策樹目錄 上一章 機器篇 邏輯回歸 logistic regression 機器篇 決策樹 一 簡要介紹一下決策樹 機器篇 決策樹 二 細說 hunt 演算法 機器篇 決策樹 三 細說 id3 與 c4.5 演算法 機器篇 決策樹 四 細說 cart 演算法 機器篇 決策樹 五 細...

決策樹演算法模型(一)

優點 可讀性高 分類速度快 非引數型 缺點 容易過擬合,可能陷入區域性最小值 準則 損失函式 正則化的極大似然函式 1 id3演算法 資訊增益 決策樹的生成 輸入 訓練資料集d dd,特徵集a aa,閾值 varepsilon 輸出 決策樹t 1 若d中所有例項屬於同一類c kc k ck 則t為單...

說一下id3決策樹

決策樹看起來比較容易理解,而且,非常適合描述分類的過程和結果。決策樹有兩類,分別是id3和cart。id3適合用於離散型的特徵。cart適合於連續型。決策樹可以用最小熵來從n個樣本中的m個特徵中,挑選某個特徵的某個值,來做 1 輸入n個樣本 2 從這n個樣本中挑選剩餘的s個特徵,然後通過最小熵理論挑...