區域性加權回歸

2021-06-19 08:59:11 字數 756 閱讀 6447

區域性加權緊接著上面的線性回歸中引數求解來繼續講吧。還是以上面的房屋**的**,它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的回歸方程為(這個地方用矩陣的方法來表示ɵ表示引數,i表示第i個樣本,h為在ɵ引數下的**值):

我們的目標是讓

最小,然後求出來ɵ,再代入h中就可以得到回歸方程了。

但是如果類似以下的樣本,他們的對應圖如下:

如果用之前的方法,圖中線為求出的回歸方程,那麼在x的取值和真實差別很大,這個情況叫做欠擬合。那麼我們怎麼辦呢?我們的主要思想就是只對x的附近的一些樣本進行選擇,根據這些樣本得到x附近這些樣本所推倒出來的回歸方程,那麼此時我們得到的回歸方程就比較擬合樣本資料,得到的效果圖如下:

我們解的思路如下,加入乙個加權因子:

重新構造新的j(x)

exp是以e為低的指數,這個時候可以知道如果x距離樣本很遠的時候w(i)=0,否則為1,當我們**乙個值的時候就需要我們重新來計算當前的引數ɵ的值,然後構造回歸方程,計算當前的**值。

這就是區域性加權回歸lwr!

區域性加權回歸

區域性加權緊接著上面的線性回歸中引數求解來繼續講吧。還是以上面的房屋 的 它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的回歸方程為 這個地方用矩陣的方法來表示 表示引數,i表示第i個樣本,h為在 引數下的 值 我們的目標是讓 最小,然後求出來 ...

區域性加權回歸

通常情況下的線性擬合不能很好地 所有的值,因為它容易導致欠擬合 under fitting 比如資料集是 乙個鐘形的曲線。而多項式擬合能擬合所有資料,但是在 新樣本的時候又會變得很糟糕,因為它導致資料的 過擬合 overfitting 不符合資料真實的模型。今天來講一種非引數學習方法,叫做區域性加權...

區域性加權回歸

andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。寫了幾篇筆記,發現好像課程題目和課程內容並不是十分擬合,所...