嶺回歸(加入正則化的線性回歸)的使用

2021-10-22 16:22:41 字數 1337 閱讀 4166

「」"

author:lei

function: l2正則化 解決過擬合,使得w的每個元素都很小,都接近於0

越小的引數說明模型越簡單,越簡單的模型則越不容易產生過擬合現象

線性回歸:容易出現過擬合,為了把訓練集資料表現的更好,可使用l2正則化:ridge:嶺回歸,帶有正則化的線性回歸,解決過擬合。

回歸解決過擬合

「」"from sklearn.linear_model import ridge

from sklearn.preprocessing import standardscaler

from sklearn.metrics import mean_squared_error

from sklearn.model_selection import train_test_split

from sklearn.datasets import load_boston

from sklearn.model_selection import gridsearchcv

def ridge_regression():

rg = ridge()

lb = load_boston()

x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)

std_x = standardscaler()

x_train = std_x.fit_transform(x_train)

x_test = std_x.transform(x_test)

std_y = standardscaler()

y_train = std_y.fit_transform(y_train.reshape(-1, 1))

y_test = std_y.transform(y_test.reshape(-1, 1))

gc = gridsearchcv(rg, param_grid=, cv=5)

gc.fit(x_train, y_train)

y_predict = std_y.inverse_transform(gc.predict(x_test))

# print(y_predict)

print(gc.best_params_)

print(mean_squared_error(std_y.inverse_transform(y_test), y_predict))

ifname== 『main』:

ridge_regression()

線性回歸的改進 嶺回歸

嶺回歸,其實也是一種線性回歸。只不過在演算法建立回歸方程時候,加上正則化的限制,從而達到解決過擬合的效果。normalize 資料是否進行標準化 ridge.coef 回歸權重 ridge.intercept 回歸偏置 ridge方法相當於sgdregressor penalty l2 loss s...

線性回歸的改進 嶺回歸

嶺回歸,其實也是一種線性回歸。只不過在演算法建立回歸方程時候,加上正則化的限制,從而達到解決過擬合的效果 solver 會根據資料自動選擇優化方法 normalize 資料是否進行標準化 ridge.coef 回歸權重 ridge.intercept 回歸偏置 all last four solve...

深度學習(正則化的線性回歸和邏輯回歸)

clear clc 載入資料 x load ex5linx.dat y load ex5liny.dat 顯示原始資料 plot x,y,o markeredgecolor b marke cecolor r markersize 10 將特徵值變成訓練樣本矩陣 x ones length x 1 ...