機器學習 回歸問題的數值優化

2022-03-03 16:13:02 字數 1108 閱讀 1180

一、前述

回歸問題求解時梯度下降由於樣本資料的多樣性,往往對模型有很大的影響,所以需要對樣本資料做一些優化

二、歸一化

1、背景

各個維度的輸入如果在數值上差異很大,那麼會引起正確的w在各個維度上數值差異很大。這樣找尋w的時候,對各個維度的調整基本上是按照同乙個數量級來進行調整的。因此需要歸一化。

2、歸一化方法

• 歸一化的一種方法:最大值最小值法

• 缺點是抗干擾能力弱

• 受離群值得影響比較大

• 中間容易沒有資料

歸一化的一種方法:方差歸一化

優點是抗干擾能力強,和所有資料都有關

. 使數量級在乙個量級

• 缺點是最終未必會落到0到1之間

• 犧牲歸一化結果為代價提高穩定

歸一化的一種方法:均值歸一化

3、案例分析一

優化方法:方差歸一化

結果:

4、案例分析二

解決辦法:盡可能讓x的各個維度上取值有正有負。

均值歸一化,每個數量減去平均值。

機器學習 回歸問題(一)

首先,我們來看乙個例子。你有乙個朋友,他有一套750平方英呎的房子,他來問你能賣多少錢。然後,你就找來了附近房子的最近買賣資訊,然後把面積跟房價畫了一條曲線出來。注 例子與圖來自andrew ng的machine learning課程。如圖,我們知道的只是上面一些點,橫座標是面積,縱座標是房價。現在...

機器學習 線性回歸問題

案例分析 正規方程 梯度下降 嶺回歸 from sklearn.datasets import load boston from sklearn.linear model import linearregression,sgdregressor,ridge from sklearn.model se...

機器學習部分 邏輯回歸的優化

有無截距 對於邏輯回歸分類,就是找到z那條直線,不通過原點有截距的直線與通過原點的直線相比,有截距更能將資料分類的徹底。線性不可分問題 對於線性不可分問題,可以使用公升高維度的方式轉換成線性可分問題。低維空間的非線性問題在高維空間往往會成為線性問題。調整分類閾值 在一些特定的場景下,如果按照邏輯回歸...