決策樹的損失函式是什麼?怎麼理解?

2021-09-29 13:59:23 字數 807 閱讀 5058

在學習決策樹的過程中,會存在損失函式。損失函式是什麼呢?如何理解?

為了避免出現過擬合的現象,我們要對決策樹進行剪枝。

決策樹的剪枝類似一種引數正則化的過程,其選擇正則化的引數是樹的葉子節點的個數。

設決策樹 t 的葉子節點個數為 |t|,t 是樹 t 的葉子節點,該葉節點有 nt 個樣本點,其中 k 類的樣本點有 ntk 個,ht(t) 為葉節點 t 上的經驗熵,α⩾0 為正則化係數,則包含剪枝的決策樹的損失函式可以定義為:

其中,經驗熵為:

右邊第一項表示誤差大小,第二項表示模型的複雜度,也就是用葉節點表示,防止過擬化。

損失函式中的第一項表示模型對訓練資料的**誤差,也就是模型的擬合程度,第二項表示模型的複雜程度,通過引數 α 控制二者的影響力。一旦 α 確定,那麼我們只要選擇損失函式最小的模型即可。

損失函式第一項為什麼要乘以nt呢?

理解1

理解2對每個葉節點t來說,ht(t)表示t的熵(也就是不確定性)的期望,針對的是t子節點中每個資料例項的熵的期望,t子節點中有nt個例項,那麼t子節點總的熵(不確定性)就是ntht(t),整個樹有∣t∣個葉節點,加起來就是整棵樹的熵(不確定性,也可以理解成誤差)。

可以看出,決策樹的構建過程只考慮對於訓練資料的擬合,每次特徵選擇也是考慮區域性最優,而剪枝過程則是乙個全域性優化的過程,剪枝的過程利用驗證集進行。

k均值的損失函式 如何理解決策樹的損失函式

謝邀,盡量用通俗易懂的語言描述一下,希望能夠幫助大家理解這玩意.1.決策樹本質上是按照某種方法 某些條件對資料進行分類.正如一般的樹結構,這個分類是可以不斷巢狀,按層逐級細分的,直到滿足某個 某些條件為止.乙個最簡單的例子是,對某個資料按照乙個條件進行分類,這就是最簡單的樹,可以用很簡單的 實現.例...

gbdt決策樹的理解

參考 1 2 3 cart回歸樹建立節點時,是最小化均方誤差來求,cart回歸樹的度量目標是,對於任意劃分特徵a,對應的任意劃分點s兩邊劃分成的資料集d1和d2,求出使d1和d2各自集合的均方差最小,同時d1和d2的均方差之和最小所對應的特徵和特徵值劃分點。所以最後求的值為均值。gbdt在建立單棵樹...

cart決策樹剪枝的個人理解

先說好前面部分我引用自以下這篇文章的,我不想寫了 我們這裡用的是代價複雜度剪枝演算法。首先我們將一顆充分生長的樹稱為t0 我們希望減少樹的大小來防止過擬化,但又擔心去掉一些節點後 的誤差會增大,那麼如何達到這兩個變數之間的平衡則是問題的關鍵,因此我們用乙個變數 來平衡,因此損失函式定義為如下 t為任...