線性回歸之標準方程法求損失函式最小值

2022-08-29 10:36:17 字數 884 閱讀 4292

圖2

關於圖2的證明,其實有個簡單的思路。在電腦上打數字公式太為難了,我還是在紙上寫吧:

先將圖1的x矩陣轉置為1行n列。那麼就有

在這個轉換過程中,稍微思考一下,就會有偷換概念的疑惑:

1.圖1的x、y是**關係,而圖2的x、y是實際取值,不能直接劃等號吧?

2.損失函式的最小二乘思想,在這裡怎麼體現不出來了?

是的,上述兩個問題確實存在,參考:

看完詳細論證,是不是感覺偷天換日的論證更好記憶呢!

具體編碼實現:下圖@改為乘號*

在前文案例中,套用該方法即:

import numpy as np

x=np.matrix([[1,1],[1,2],[1,2],[1,1],[1,3]])

y=np.matrix([[14],[24],[18],[17],[27]])

z=np.linalg.inv(x.tx)x.t*y #**複製後乘號顯示異常

print z

輸出結果:

[[9.71428571]

[5.71428571]]

注意:x0全部置為1,所以x矩陣至少有兩列,第1列全部是1,第2列是特徵值。

x1表示特徵1...xn表示特徵n,從單特徵角度來看x和y矩陣都是列向量。

z也是列向量,行結果分別對應截距、特徵1的向量...特徵n的向量。

標準方程法 嶺回歸

待續 import numpy as np from numpy import genfromtxt import matplotlib.pyplot as plt 讀入資料 data genfromtxt r longley.csv delimiter print data 切分資料 x data...

線性回歸的損失函式與邏輯回歸的損失函式

xi yi 我們有如下的擬合直線 yi xi構建的損失函式是 c i 1 n yi yi 2表示每乙個訓練點 x i,yi 到擬合直線yi xi的豎直距離的平方和,通過最小化上面的損失函式可以求得擬合直線的最佳引數 這裡的損失函式之所以使用平方形式,是使用了 最小二乘法 的思想,這裡的 二乘 指的是...

線性回歸的損失函式和梯度下降

損失函式 總損失定義為 理解 x為特徵值矩陣,y為目標值矩陣。直接求到最好的結果 缺點 當特徵過多過複雜時,求解速度太慢並且得不到結果 其中y是真實值矩陣,x是特徵值矩陣,w是權重矩陣 對其求解關於w的最小值,起止y,x 均已知二次函式直接求導,導數為零的位置,即為最小值。求導 注 式 1 到式 2...