推薦演算法 GBDT與LR演算法融合

2021-10-23 05:43:19 字數 778 閱讀 5666

什麼是gbdt演算法?

gbdt演算法是boosting演算法中的一種,這種演算法的特點是,由多個弱分類演算法組成,並且下級的弱分類器是依賴上級分類器的。

gbdt演算法依賴cart演算法

cart演算法的目標是找到乙個分割點使得分割後的兩個子集合內部產生的方差要最小。公式如下:

通過上面的方式可以產生m個決策區域,而決策的過程其實就是根據輸入條件找到符合條件的決策區域,該區域的平均值就是**值。

gbdt演算法的依賴於cart演算法,但又不同於cart演算法。

怎麼說呢,gbdt演算法樹的形成過程是利用了和cart演算法一樣的原理,也就是找可以形成最小方差的分割點。

但是**過程是不一樣點的,gbdt是不斷累積每層產生的殘差得到的**。

具體的gbdt演算法介紹可以參考:

gbdt演算法為什麼要與lr算融合使用呢?又是怎麼融合使用的?

我們知道lr演算法使用來做分類**的,但是這個演算法需要眾多的特徵作為輸入條件。

而gbdt演算法就可以幫助找到這樣的特徵組合,節省人工尋找特徵組合的過程。

由上圖所示,樹的葉子節點將作為lr的特徵向量,樣本所落的葉子節點為1,其餘的節點為0。通過上面的變化特徵的維度表多了,數值化的資料也轉化成了類別化的資料,有利於lr模型進行分類。

專案**見下面的連線:

多模型融合推薦演算法

常見的多模型融合演算法 多模型融合演算法可以比單一模型演算法有極為明顯的效果提公升。但是怎樣進行有效的融合,充分發揮各個演算法的長處?這裡總結一些常見的融合方法 1.線性加權融合法 是給使用者 user 推薦商品 item 的得分,是演算法k的權重,是演算法k得到的使用者 user 對商品item的...

gbdt演算法 經典演算法 GBDT

梯度提公升樹 gradient boosting decison tree,gbdt 是整合學習boosting重要演算法。該方法是針對模型的偏差進行的優化。而隨機森林是基於對模型的方差進行優化。即使在整合演算法中,adaboost是利用前一輪迭代器弱學習器的誤差率來更新訓練集的權重。gbdt演算法...

gbdt演算法 演算法梳理五 GBDT

真正開始動手寫,才發現以前理解的不夠深。弄懂乙個演算法,要想明白哪些問題?集合裡有m個樣本,n個特徵,gbdt每棵回歸樹怎麼構造 選取多少樣本,多少特徵 它的損失函式怎麼擬合,殘差是怎麼回事,梯度在其中的作用。gbdt有很多簡稱,有gbt gradient boosting tree gtb gra...