ML 線性回歸系列(四) lasso mtl

2021-07-07 11:13:01 字數 1996 閱讀 7412

andrew zhang

nov 25, 2015

本文主要對套索回歸(lasso)進行總結。

本系列的第一篇中線性回歸的轉化為如下的無約束優化問題

minθ∑m

i=1(

y(i)

−θtx

(i))

2(0-1)

其中,x(

i)∈r

n×1 表示每個樣本都是n維向量,y(

i)表示樣本x(

i)對應的標籤,θ∈

rn×1

表示引數向量。與之等價的矩陣形式為

minθ||

xθ−y

||22

(0-2)

其中x=

(x(1

),x(

2),.

..,x

(m))

t∈rm

×n,y

=(y(

1),y

(2),

...,

y(m)

)t.一、least absolute shrinkage and selection operator(lasso)

基本的lasso目標函式為

minθ∑m

i=1(

y(i)

−θtx

(i))

2+λ⋅

||θ|

|1(1-1)

與之等價的矩陣形式表述為

minθ||

xθ−y

||22

+λ⋅|

|θ||

1(1-2)

相比於線性回歸,這裡多了一項正則項引數—l1範數,不同於嶺回歸的l2範數,這裡加了l1範數以後,最後得到的

θ 的很多分量都是是0,因此lasso經常用於特徵選擇。

二、標準的多工學習

在對疾病進行分類的時候,會採取他的eeg訊號和mri訊號,來對病人病情進行判別。當然我們可以對eeg訊號和mri訊號分別抽取特徵,分別建立乙個分類器。但是這樣往往會損失他們不同模態之間的資訊。這時候就可以使用多工學習的方法,對模型進行特徵選擇。

標準的多模特徵選擇基於l2,1範數,假設有k個任務時,如下圖

目標函式為

minθ12

∑kj=

1||x

jθj−

yj||

22+λ

⋅||θ

||2,

1(2-1)

需要注意這裡的符號與前面的表述稍微有點區別。mj

表示第j個任務下樣本個數,xj

∈rmj

×n表示第j個任務下的所有樣本,yj

∈rmj

×1表示這個任務下的mj

個樣本對應的標籤向量,θj

∈rn×

1 表示第j個任務下的模型引數向量,θ=

(θ1,

θ2,.

..,θ

k)∈r

n×k 。

與之等價的矩陣形式為(來自於slep manual,這裡我認為有錯,保留)

minθ||

xθ−y

||22

+λ⋅|

|θ||

2,1(2-2)

其中x=

[x1;

x2;.

..;x

k]∈r

m×n,

y=(y

1,y2

,...

,yk)

∈rm×

1 。

補充:矩陣的l2,1範數定義如下 θ∈

rn×k

,||θ

||2,

1=∑n

i=1|

|θi|

|2=∑

ni=1

(∑kj

=1θ2

i,j)

12三、參考資料

更多參考資料

ML 線性回歸系列(三) 嶺回歸

華電北風吹 日期 2015 11 25 本文主要對嶺回歸 ridge regression 進行總結。本系列的第一篇中線性回歸的轉化為如下的無約束優化問題 min m i 1 y i tx i 2 0 1 其中,x i r n 1 表示每個樣本都是n維向量,y i 表示樣本x i 對應的標籤,rn ...

ML 線性回歸

說句廢話,相信大多數人和我一樣,最開始學習機器學習遇到的第乙個模型便是線性回歸,而且是一元線性回歸,但就這個模型,其實包含了很多的知識點,矩陣計算,最小二乘 梯度下降等知識點。我認為非常的有趣。這裡只是乙個簡單的介紹。1問題的引入 假設有乙個房屋銷售的資料如下 面積銷售 123250 150320 ...

ML 線性回歸系列(二) 基礎統計

華電北風吹 天津大學認知計算與應用重點實驗室 日期 2015 11 25 線性回歸是統計學裡面乙個非常重要的部分,在本系列的第二部分主要總結一些線性回歸的統計學指標。並且不定期更新。一 統計學名詞 樣本與系列第一篇表示一樣表示為 x i y i 模型對於x i 的 值為y i tx i 所有樣本的y...