Task2 GBDT演算法梳理

2021-09-25 23:27:45 字數 1467 閱讀 2658

(隨機森林是通過減少模型方差提高效能,gbdt是通過減少模型偏差提高效能)

gbdt演算法梳理

gbdt演算法梳理

gbdt演算法原理以及例項理解

boosting

gradient boosting

提公升方法 - 2 - 前向分布演算法和提公升樹

gbdt 主要依據不同的損失函的梯度進行更新,針對回歸與分類問題,有不同的損失函式如下:

分類問題

【演算法梳理task2】gbdt演算法梳理

【演算法梳理task2】gbdt演算法梳理

gbdt的正則化主要分三種

缺點

sklearn.ensemble.gradientboostingregressor(

loss=

'ls'

,# 預設ls損失函式'ls'是指最小二乘回歸lad'(最小絕對偏差)'huber'是兩者的組合

n_estimators=

100,

# 預設100 回歸樹個數 弱學習器個數

learning_rate=

0.1,

# 預設0.1學習速率/步長0.0-1.0的超引數 每個樹學習前乙個樹的殘差的步長

max_depth=3,

# 預設值為3每個回歸樹的深度 控制樹的大小 也可用葉節點的數量max leaf nodes控制

subsample=1,

# 用於擬合個別基礎學習器的樣本分數 選擇子樣本<1.0導致方差的減少和偏差的增加

min_samples_split=2,

# 生成子節點所需的最小樣本數 如果是浮點數代表是百分比

min_samples_leaf=1,

# 葉節點所需的最小樣本數 如果是浮點數代表是百分比

max_features=

none

,# 在尋找最佳分割點要考慮的特徵數量auto全選/sqrt開方/log2對數/none全選/int自定義幾個/float百分比

max_leaf_nodes=

none

,# 葉節點的數量 none不限數量

min_impurity_split=1e-

7,#停止**葉子節點的閾值

verbose=0,

# 列印輸出 大於1列印每棵樹的進度和效能

warm_start=

false

,# true在前面基礎上增量訓練 false預設擦除重新訓練 增加樹

random_state=

0# 隨機種子-方便重現

)

GBDT演算法梳理

table of contents 1 gbdt概述 2 前向分布演算法 2.1 加法模型 2.2 前向分布演算法 2.2.1 思想 2.2.2 策略 2.2.3 加法模型求解 3 損失函式 4 負梯度擬合 5 回歸 6 gbdt分類 6.1 二分類 6.2 多分類 7 正則化 8 優缺點 9 sk...

GBDT演算法梳理

人工智慧之gbdt演算法 前言 人工智慧之機器學習主要有三大類 1 分類 2 回歸 3 聚類。今天我們重點 一下gbdt演算法。我們知道,gbm 請參見人工智慧 51 是乙個改善弱學習器效果的計算框架。gbm梯度提公升模組可以根據需要任意插入各種各樣的弱分類器。若弱學習器限定了只能使用cart回歸樹...

gbdt演算法 演算法梳理五 GBDT

真正開始動手寫,才發現以前理解的不夠深。弄懂乙個演算法,要想明白哪些問題?集合裡有m個樣本,n個特徵,gbdt每棵回歸樹怎麼構造 選取多少樣本,多少特徵 它的損失函式怎麼擬合,殘差是怎麼回事,梯度在其中的作用。gbdt有很多簡稱,有gbt gradient boosting tree gtb gra...