線性回歸 機器學習實戰筆記

2021-09-25 17:57:03 字數 1563 閱讀 5088

前言:

剛開始看到線性回歸,總覺得這是不是和羅輯回歸又啥關係。

對比一下吧。

線性回歸用於數值**,羅輯回歸用於分類。

對於羅輯回歸 來說,用於分類的神經網路的最後一層也是乙個羅輯回歸。

線性回歸:

線性回歸比較簡單,找到一條最佳直線來擬合資料。擬合的目標可以是均方誤差最小。

求最優的線性回歸直線的解法就是使用最小二乘法,通過最小二乘法來解。

但是這種做法存在問題。存在的問題主要有 非線性的資料無法擬合,容易欠擬合。

使用最小二乘法,求解的時候有矩陣推導這部分還不會啊

對於y = xw,矩陣表示均方誤差是

然後對w求導,然後得到

(這部分對於矩陣求導沒有看明白啊,也是艱難)。

然後另導數等於零求的極小值。

改進的方法有以下幾種:

(1)區域性加權線性回歸

(2)嶺回歸

(3)前向逐步線性回歸

首先說說區域性加權線性回歸。這個的主要思想是當前待**點越近的點,對於擬合的影響越大。這個影響是使用核函式來實現的。

核函式一般選用高斯核,例如:

其中對於**結果影響比較大的是k。其中k可以理解為對於待**點來說,參與線性擬合的點的範圍,k值越大參與線性擬合的範圍越大,如果k=1,則基本就是直線了。這部分為何會這樣還沒想明白。

一下內容是我主要的參考資料了。其中的d就是權重了。

即 locally weighted linear regression(區域性加權線性回歸)。 

其優化目標函式是 

其中 d

是n×n

的對稱矩陣,其元素值d(i,j)

表示資料xi

與xj的某種關係的度量。

對l關於w

求導,得 

令導數為0

解得w: 

的函式稱為「核」,核的型別可以自由選擇,最常用的是高斯核: 

d(i,j)=exp(||xi−xj||1−2k2)

觀察上式可得:d(i,j)

與xi、xj

的l1範數呈負相關,l1

範數越大,值越小;與|k|

呈正相關。

當|k|

取乙個很小的值時,d(i,j)

的值隨||xi−xj||1

的增加衰減速度極快,這時矩陣d

非對角線上的元素都為0,對角線上元素值都為1

,退化為普通的lr。由此可知,lwlr是lr的推廣形式。

機器學習實戰之線性回歸

之前我們學習的機器學習演算法都是屬於分類演算法,也就是 值是離散值。當 值為連續值時,就需要使用回歸演算法。本文將介紹線性回歸的原理和 實現。如圖所示,這時一組二維的資料,我們先想想如何通過一條直線較好的擬合這些散點了?直白的說 盡量讓擬合的直線穿過這些散點 這些點離擬合直線很近 目標函式 要使這些...

機器學習實戰之線性回歸

線性回歸原理與推導 如圖所示,這時一組二維的資料,我們先想想如何通過一條直線較好的擬合這些散點了?直白的說 盡量讓擬合的直線穿過這些散點 這些點離擬合直線很近 目標函式 要使這些點離擬合直線很近,我們需要用數學公式來表示。首先,我們要求的直線公式為 y xtw。我們這裡要求的就是這個w向量 類似於l...

機器學習實戰筆記 回歸

回歸的目的是 數值型的目標值。即找到乙個回歸方程,通過求解其中的回歸係數 該過程就稱為回歸 給定輸入來得到 值。這裡我們之談論線性回歸。用線性回歸找最佳擬合直線 回歸的一般方法 收集資料 準備資料 分析資料 可以繪出資料的視覺化二維圖將有助於對資料做出理解和分析,在採用縮減法求得新回歸係數之後,可以...