八 線性回歸

2021-10-18 19:11:03 字數 1840 閱讀 5220

def

line_regression()

:'''

線性回歸:乙個自變數稱為單變數回歸,多個自變數稱為多元回歸。找到最小損失,優化方法有正規方程和梯度下降兩種方式

api1(正規方程):sklearn.linear_model.linearregression(fit_intercept=true)此為通過正規方程優化

fit_intercept:是否計算偏置

linearregression.coef_:回歸係數

linearregression.intercept_:偏置

api2(梯度下降):sklearn.linear_model.sgdregressor(loss="squared_loss", fit_intercept=true, learning_rate ='invscaling', eta0=0.01)

sgdregressor類實現了隨機梯度下降學習,它支援不同的loss函式和正則化懲罰項來擬合線性回歸模型。

loss:損失型別

loss=」squared_loss」: 普通最小二乘法

fit_intercept:是否計算偏置

learning_rate : string, optional

學習率填充

'constant': eta = eta0

'optimal': eta = 1.0 / (alpha * (t + t0)) [default]

'invscaling': eta = eta0 / pow(t, power_t)

power_t=0.25:存在父類當中

對於乙個常數值的學習率來說,可以使用learning_rate=』constant』 ,並使用eta0來指定學習率。

sgdregressor.coef_:回歸係數

sgdregressor.intercept_:偏置

'''data = load_boston(

) x_train, x_test, y_train, y_test = train_test_split(data.data, data.target, test_size=

0.3, random_state=24)

std_x = standardscaler(

) x_train = std_x.fit_transform(x_train)

x_test = std_x.transform(x_test)

std_y = standardscaler(

) y_train = std_y.fit_transform(y_train.reshape(-1

,1))

y_test = std_y.transform(y_test.reshape(-1

,1))

# 梯度下降進行**

lin = sgdregressor(

) lin.fit(x_train, y_train)

pre = lin.predict(x_test)

print

("權重:"

, lin.coef_)

print

("偏執:"

, lin.intercept_)

print

("**結果:"

,pre)

a =[x for x in

range

(len

(pre))]

plt.plot(a,pre,color =

'red'

) plt.plot(a,y_test,color =

'yellow'

) plt.show(

)

Dubbo(八)執行緒模型

dubbo有兩種執行緒池,第一種是i o執行緒池,第二種是業務執行緒池。i o執行緒池主要是收包發包,接收新的連線,業務執行緒則是執行我們的業務 呼叫介面的實現類 i o執行緒數預設是cpu的個數 1,業務執行緒數預設是200。與其他半同步半非同步的模型相似,dubbo的業務執行緒池也配備了佇列,不...

PostGIS教程十八 線性參考

目錄 一 建立線性參考 二 函式列表 附 關於線性參考的概念,可以參考這篇文章 arcgis中的線性參考 動態分段技術 一 linear referencing背景 線性參考模型的優點是,從屬空間觀測資訊不需要與基準空間觀測資訊分開記錄,並且對基礎觀測資訊進行更新時,從屬觀測資訊將自動更新從而追蹤新...

疏漏總結(八) 執行緒池

先從構造方法裡面的引數開始說。corepoolsize 核心執行緒數 核心執行緒是一定會存在著的執行緒,也就是說,如果你設定了假如說5,那麼不管這五個執行緒有沒有任務,都會被建立出來。queuecapacity 阻塞佇列 當核心執行緒數被使用到了最大值後,新任務如果還需要建立執行緒,就會進入阻塞佇列...