資料探勘專案 調參

2021-09-12 09:09:16 字數 1624 閱讀 9451

# lr

lr_param =

lr_grid = gridsearchcv(lr, lr_param, cv=n_fold, scoring=scoring, n_jobs=-1)

lr_grid.fit(x_train_std, y_train)

print(lr_grid.best_score_)  # 最優分數

print(lr_grid.best_params_)  # 最優引數

print(lr_grid.cv_results_)  # 結果

# 把引數重新賦值給原模型

lr.set_params(**lr_grid.best_params_)

lr.fit(x_train_std, y_train)

# 線性svc 如果一次性設定的引數太多,可能會跑很長時間,這個時候,建議使用貪心的方法,在某個引數調到最優的時候再調另乙個引數

linear_svc_param =

linear_svc_grid = gridsearchcv(linear_svc, linear_svc_param, cv=n_fold, scoring=scoring, n_jobs=-1)

linear_svc_grid.fit(x_train_std, y_train)

print(linear_svc_grid.best_score_)  # 最優分數

print(linear_svc_grid.best_params_)  # 最優引數

# 把引數重新賦值給原模型

linear_svc.set_params(**linear_svc_grid.best_params_)

linear_svc.fit(x_train_std, y_train)

# 多項式svc 

poly_svc_param =

poly_svc_grid = gridsearchcv(poly_svc, poly_svc_param, cv=n_fold, scoring=scoring, n_jobs=-1)

poly_svc_grid.fit(x_train_std, y_train)

print(poly_svc_grid.best_score_)  # 最優分數

print(poly_svc_grid.best_params_)  # 最優引數

# 把引數重新賦值給原模型

poly_svc.set_params(**svc_grid.best_params_)

poly_svc.fit(x_train_std, y_train)

# 決策樹  關於決策樹引數較多,可參考:

dt_param =

dt_grid = gridsearchcv(dt, dt_param, cv=n_fold, scoring=scoring, n_jobs=-1)

dt_grid.fit(x_train_std, y_train)

print(dt_grid.best_score_)  # 最優分數

print(dt_grid.best_params_)  # 最優引數

# 把引數重新賦值給原模型

dt.set_params(**dt_grid.best_params_)

dt.fit(x_train_std, y_train)

資料探勘 建模調參

線性回歸,模型決策樹模型 gbdt模型,xgboost模型 lightgbm模型 簡單的線性回歸,可以用sklearn from sklearn.linear model import linearregression model linearregression normalize true mo...

零基礎入門資料探勘 Task4 建模調參

一 介紹 1 線性回歸模型 線性回歸對於特徵的要求 處理長尾分布 理解線性回歸模型 2 模型效能驗證 評價函式與目標函式 交叉驗證方法 針對事件序列問題的驗證 繪製學習率曲線 繪製驗證曲線 3 嵌入式特徵選擇 lasso回歸 ridge回歸 決策樹4 模型對比 常用線性模型 常用非線性模型 5 模型...

金融資料 建模與調參

引數調整 logistic regression 雖然被稱為回歸,但其實際上是分類模型,並常用於二分類。logistic regression 因其簡單 可並行化 可解釋強深受工業界喜愛。logistic 回歸的本質是 假設資料服從這個分布,然後使用極大似然估計做引數的估計。logistic 分布是...