Python回歸演算法彙總 回歸樹

2021-10-09 12:35:31 字數 1561 閱讀 9823

總結回歸樹在選擇不同特徵作為**節點的策略上,與決策樹的思路類似。不同之處在於,回歸樹葉節點的資料型別不是離散型,而是連續型。決策樹每個葉節點依照訓練資料表現的概率傾向決定了其最終的**類別;而回歸樹的葉節點卻是一乙個個具體的值,從**值連續這個意義上嚴格地講,回歸樹不能稱為「回歸演算法」。因為回歸樹的葉節點返回的是「一團」訓練資料的均值,而不是具體的、連續的**值。

這裡我們利用前一篇文章python回歸**彙總-線性回歸(例項:美國波士頓地區房價**)的資料繼續進行支援向量機回歸**。

from sklearn .tree import decisiontreeregressor

dtr=decisiontreeregressor(

)dtr.fit(x_train,y_train)

dtr_y_pred=dtr.predict(x_test)

#模型自帶評估模組

print

("正確率為:\n"

,dtr.score(x_test,y_test.reshape(-1

,1))

)#from sklearn.metrics import r2_score,mean_absolute_error,mean_squared_error

#使用r2_score模組評估

print

("正確率為:\n"

,r2_score(y_test,dtr_y_pred)

)#用mean_squared_error模組評估

print

("正確率為:\n"

,mean_squared_error(ss_y.inverse_transform(y_test.reshape(-1

,1))

,ss_y.inverse_transform(dtr_y_pred)))

#用mean_absolute_error模組評估

print

("正確率為:\n"

在系統地介紹了決策(分類)樹與回歸樹之後,可以總結這類樹模型的優點:①樹模型可以解決非線性特徵的問題;②樹模型不要求對特徵標準化和統一量化,即數值型和類別型特徵都可以直接被應用在樹模型的構建和**過程中;③因為上述原因,樹模型也可以直觀地輸出決策過程,使得**結果具有可解釋性。

同時,樹模型也有一些顯著的缺陷:①正是因為樹模型可以解決複雜的非線性擬合問題,所以更加容易因為模型搭建過於複雜而喪失對新資料**的精度(泛化力);②樹模型從上至下的**流程會因為資料細微的更改而發生較大的結構變化,因此**穩定性較差;③依託訓練資料構建最佳的樹模型是np難問題,即在有限時間內無法找到最優解的問題,因此我們所使用類似貪婪演算法的解法只能找到一些次優解,這也是為什麼我們經常借助整合模型,在多個次優解中尋覓更高的模型效能。

Python 演算法(回歸演算法)

線性關係 在二維中資料呈直線關係被稱之為線性關係 線性關係模型 1 1 2?2 w為權重,b稱為偏置項,可以理解為 0 1損失函式 每個回歸都有損失函式,目的減少誤差值 y i 為第i個訓練樣本的真實值 h?為第?個訓練樣本特徵值組合 函式 總損失定義 j h w x 1 y 1 2 h w x 2...

回歸演算法之線性回歸

線性回歸的定義是 目標值預期是輸入變數的線性組合。線性模型形式簡單 易於建模,但卻蘊含著機器學習中一些重要的基本思想。線性回歸,是利用數理統計中回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分析方法,運用十分廣泛。優點 結果易於理解,計算不複雜 缺點 對非線性的資料擬合不好 適用資...

python 回歸 顯著 強勢回歸,再說回歸分析

高爾頓發現了 向平均回歸 乙個總體中在某一時期具有某一極端特徵的個體在未來的某一時期將減弱它的極端性,比如非常矮小的父輩傾向於有偏高的子代,而非常高大的父輩則傾向於有偏矮的子代。這些都是 回歸效應 函式關係是一一對應的確定關係,因變數y隨自變數x的變化而變化,比如銷售額和銷量之間的關係,就是線性函式...