機器學習(7) 線性回歸

2021-09-28 18:48:35 字數 2544 閱讀 6790

網格搜尋

網格搜尋與交叉驗證

方法 交叉驗證相關的屬性

2.1 執行緒回歸簡介

機器學習(模型訓練)的過程:

**過程:

按照自變數個數分類:

多個自變數: 多元回歸

線性回歸模型與目標關係:

屬性:

線性回歸的損失:

優化:

正規方程:

梯度下降

梯度下降公式: θi=

上一次θ

i−αj

(θ)θ

i\theta_i = 上一次\theta_i - \alpha\frac

θi​=上一

次θi​

−αθi

​j(θ

)​- α: 學習率(步長))

- 太小就需要很多步

- 太大就會錯失最優解

- 梯度乘以負號的原因: 梯度是上公升最快方向, 我們求解最下值, 要找下降最快的方向, 所以要加負號.

梯度下降與正規方程對比

選擇:大規模資料:

隨機梯度下降演算法(sg)

小批量梯度下降演算法(mini-bantch)

隨機平均梯度下降演算法(sag)

會記錄每次梯度, 每次梯度下降的時候, 隨機選擇乙個樣本, 計算梯度, 帶入的梯度下降公式時候, 使用是前面所有梯度平均值.

總結:(1**)fg方法由於它每輪更新都要使用全體資料集,故花費的時間成本最多,記憶體儲存最大。**

(2)sag在訓練初期表現不佳,優化速度較慢。這是因為我們常將初始梯度設為0,而sag每輪梯度更新都結合了上一輪梯度值。

(3)綜合考慮迭代次數和執行時間,sg表現效能都很好,能在訓練初期快速擺脫初始梯度值,快速將平均損失函式降到很低。但要注意,在使用sg方法時要慎重選擇步長,否則容易錯過最優解。

(4)mini-batch結合了sg的「膽大」和fg的「心細」,從6幅影象來看,它的表現也正好居於sg和fg二者之間。在目前的機器學習領域,mini-batch是使用最多的梯度下降演算法,正是因為它避開了fg運算效率低成本大和sg收斂效果不穩定的缺點。

引數:

屬性:

回歸模型評估:

引數:

屬性:

過擬合正則化:

l2正則化:

l1正則化

維災難[了解]:

lasso回歸(l1正則化):

elastic net 彈性網路

early stopping

引數:正則化力度與係數之間的關係:

正則化力度越大, 模型係數就越小

正則化力度越小, 模型係數就越大

嶺回歸與線性回歸的區別:

嶺回歸也是一種線性回歸

嶺回歸使用l2正則化 和 隨機平均梯度下降法

sgdregressor:

ridge

學習目標反饋

知道超引數搜尋過程

應用gridsearchcv實現演算法引數的調優

# 4. 機器學習(模型訓練)

# 4.1 建立knn評估器

estimator = kneighborsclassifier(

)# 4.2 建立網格搜尋與交叉驗證的評估器

param_grid =

estimator = gridsearchcv(estimator, param_grid=param_grid, cv=

5)

掌握線性回歸的實現過程

應用linearregression或sgdregressor實現回歸**

# 4. 機器學習(正規方程)

estimator = linearregression(

)estimator.fit(x_train, y_train)

estimator = sgdregressor(

)estimator.fit(x_train, y_train)

知道回歸演算法的評估標準及其公式

知道過擬合與欠擬合的原因以及解決方法

欠擬合

知道嶺回歸的原理及與線性回歸的不同之處

線性回歸的不同之處:

應用ridge實現回歸**

# 4. 機器學習(嶺回歸: l2正則化項 + 隨機平均梯度下降)

estimator = ridge(

)estimator.fit(x_train, y_train)

應用joblib實現模型的儲存與載入

# 4. 機器學習(嶺回歸: l2正則化項 + 隨機平均梯度下降)

# estimator = ridge()

# estimator.fit(x_train, y_train)

# 儲存訓練好的模型

# joblib.dump(estimator, 'test.pkl')

estimator = joblib.load(

'test.pkl'

)

機器學習 線性回歸

可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...

機器學習(線性回歸)

在機器學習中,回歸 分類和標註共同構成了監督學習技術。監督學習 supervised learning 是機器學習在工業界應用最廣的乙個領域分支。在學術界中也是研究最多的領域之一。大家都知道的資料探勘十大經典演算法中,監督學習技術佔據6席。方法 自變數 特徵 因變數 結果 關係 回歸演算法是試圖採用...

機器學習 線性回歸

line fitter linearregression 建立模型 line fitter.fit temperature,sales 傳入引數 sales predict line fitter.predict temperature 模型 直線 直線上會有loss 計算loss時 要使用平方距離...