機器學習之回歸演算法1

2021-10-14 10:02:45 字數 3034 閱讀 2013

過擬合和欠擬合

嶺回歸**實現

正常求解

梯度下降

比較

,1]) 版本不同,有的要求二維

y_test = std_y.

transform

(y_test)

lr =

linearregression()

lr.fit(x_train, x_test)

lr.fit(x_train, y_train)

print

(lr.coef_)

y_predict_lr = std_y.

inverse_transform

(lr.

predict

(x_test)

)print

('****'

, y_predict_lr)

print

('均方誤差'

,mean_absolute_error

(std_y.

inverse_transform

(y_test)

, y_predict_lr)

) # 梯度下降

sgd =

sgdregressor()

sgd.

fit(x_train, x_test)

print

(sgd.coef_)

y_predict_sgd = std_y.

inverse_transform

(sgd.

predict

(x_test)

)print

('****'

, y_predict_sgd)

print

('均方誤差'

,mean_absolute_error

(std_y.

inverse_transform

(y_test)

, y_predict_sgd)

) # 嶺回歸

rd =

ridge

(alpha=

1.0)

rd.fit(x_train, x_test)

print

(rd.coef_)

y_predict_rd = std_y.

inverse_transform

(rd.

predict

(x_test)

)print

('****'

, y_predict_rd)

print

('均方誤差'

,mean_absolute_error

(std_y.

inverse_transform

(y_test)

, y_predict_rd)

)return

myliner

()

機器學習之1 線性回歸

在最近一段時間,對機器學習進行了學習,但感覺效果不是很好。一日與朋友聊起此事,他建議建個部落格,一來梳理一下所學內容,二來和大家一起學習交流。因此,建立了此部落格,如果您發現博文中有不當之處,歡迎您來郵指明,我的郵箱為212352807 qq.com 在機器學習中,基本分為兩大問題 監督學習 sup...

機器學習演算法 之logistic回歸

還是那句話 統計學習 模型 策略 演算法 1.模型 logistic模型是對條件概率進行了建模 雖然叫做logistic回歸,但實際上解決的是基本的二分類問題,因此可以建立上述的條件概率模型。這裡利用了sigmoid函式的特性,比之線性模型,應當是乙個更加合理的模型 2.策略 在建立好概率模型之後,...

機器學習演算法之邏輯回歸

本部分將講解機器學習演算法中最為常用的邏輯回歸演算法,該演算法的講解主要來自於andrewng deeplearning.ai中部分課程的知識結合書籍中部分數學理論知識,將以較為易懂並部分深入的講解,講解中存在大量手寫體的公式及推導。邏輯回歸演算法中有幾個基本點需要知道 首先了解下二分類演算法需要解...