(LXTML筆記)整合模型

2021-08-16 02:09:41 字數 1317 閱讀 1805

本章在數學上的內容較少,下面主要是講述思想

弱小的模型集合起來也可以變得足夠強大

有時候可以是所有弱小模型gt

g

t,對其來乙個權相同的投票模型,即g(

x)=s

ign(

∑tt=

11⋅g

t(x)

) g(x

)=si

gn(∑

t=1t

1⋅gt

(x))

,類似的還有不同的權重,以及更加廣義的g(

x)=s

ign(

∑tt=

1qt(

x)⋅g

t(x)

) g(x

)=si

gn(∑

t=1t

qt(x

)⋅gt

(x))

下面給出兩個例子

第一種是左圖,實際上這裡弱小的gt

g

t是指縱切和橫切,但是這兩種切都不能將圖的點完美分開,但是合起來的話卻可以,這裡的整合模型起到的作用是feature transform→讓模型更具有powerful

第二種是右圖,假設有很多條線即gt

g

t可以分開這些點,那麼這裡的整合模型相當於是取了平均→regularization的作用

之前學ml的時候transform是踩油門,讓模型有powerful,而regularization是踩剎車,不要讓模型過於強導致overfit,aggregation似乎有兩者兼備!

所以最關鍵的一步,是產生足夠多的不同的有效的gt

一般地方法有:

1.構造不同的模型獲得g1

,g2.

..g 1,

g2..

.,即如svm,lr或者若干模型都跑一遍

2.通過不同的引數獲得,比如由gd中不同的步長

3.通過不同的初始值,如pla的初始位置

4.通過不同的資料獲得,如bootstrap類的方法(下一節會重點提到)

模型整合方法

資料層面的整合方法 測試階段資料擴充 以隨機扣取為例,對某張測試影象可得到n張隨機扣取影象,測試階段只需用訓練好的深度網路模型對n張圖分別做 之後將 的各類置信度平均作為該測試影象的最終 結果即可。簡易整合法 對於樣本較多的類採取降取樣,每次取樣數依照樣本數目最少的類別而定,這樣每類取到的樣本數是均...

CV基礎 模型整合

在機器學習中的整合學習可以在一定程度上提高 精度,常見的整合學習方法有stacking bagging和boosting,同時這些整合學習方法與具體驗證集劃分聯絡緊密。由於深度學習模型一般需要較長的訓練週期,如果硬體裝置不允許建議選取留出法,如果需要追求精度可以使用交叉驗證的方法。下面假設構建了10...

模型整合方法

模型層面的整合方法 多模型整合 小結整合學習是機器學習中的一類學習演算法,指訓練多個學習器並將它們組合起來使用的方法。這類演算法通常在實踐中能取得比單個學習器更好的 結果,頗有 眾人拾柴火焰高 之意。儘管深度網路模型已經擁有強大的 能力,但整合學習的使用仍能起到 錦上添花 的作用。因此有必要了解並掌...