MIL 多示例學習 特徵選擇

2022-08-21 17:03:08 字數 1484 閱讀 8985

乙個主要的跟蹤系統包含三個成分:1)外觀模型,通過其可以估計目標的似然函式。2)運動模型,**位置。3)搜尋策略,尋找當前幀最有可能為目標的位置。mil主要的貢獻在第一條上。

mil與ct的不同在於後者是通過感知矩陣進行特徵提取,而mil是通過boosting框架來進行特徵選擇,選擇出來的特徵(高斯分布)作為分類器用於對取樣影象塊的篩選,響應最大取樣幀即估計目標。

多示例學習考慮的問題就是類別裡含有大量難以去除的雜訊,其將樣本看成包(bag)的形式,乙個bag中包含若干示例(即乙個樣本及其標籤flag),某個示例的flag不定性較大,即其可能為正或負示例,但對於乙個包含n個示例的bag,只要知道任意乙個示例的flag為正就將其標誌為正bag,而bag要為負,其中所有的示例都為負才行。由原文中表示式可看出,yi=maxj(yij),y=1,0分別表示正負樣本,mil有了其特有的外觀模型。**[1]中的noisy-or模型描述了p(y|x)與p(y|x)的關係:

p(yi|xi)=1-prod(1-p(yi|xij))

而p(yi|xij)=sigmoid(h(x)),h表示強分類器,h=sumk(a*h),k為特徵數即我們要訓練後選出的有效特徵數。這裡h是弱分類器,其表示式為

hk=log[p(y=1|f(k)/p(y=0|f(k)]

即p(具有某一特徵的取樣屬於正樣本)/p(具有某一特徵的取樣屬於負樣本),該值越大,取樣越可能為正樣本。由於正負樣本已知,這裡假設其特徵符合高斯分布。

於是,可通過求似然函式l=sum(logp(p(yi|xi)))來進行特徵的選擇:首先求出l最大時的hi,並記錄下所選特徵的位置(即該特徵可很好的區分當前幀正負樣本,從而使得取樣較易標籤),依次類推,文中迭代了50次,即每個樣本的特徵向量長度為50,減少了弱分類類性質的特徵的同時也減小了運算,最終,提取出較強的特徵。

ps:本文的影象塊的特徵是harr特徵,隨機選取2到4個矩陣進行計算獲得乙個特徵值(可通過積分圖進行快速計算),程式中獲取了長度為250的特徵向量,有效地減少特徵向量長度可提公升演算法的效能。

主要步驟理解為:1 獲得正負樣本的harr特徵 2 通過mil和boosting(提公升)演算法,訓練正負樣本,計算出使似然函式l最大的強特徵 3 有了分類器,在當前幀目標附近取樣大量影象塊並計算出相應的特徵(這裡由於正負樣本訓練完成,強特徵位置已知) 4 計算出取樣樣本在分類器器上的響應,響應最大的即為估計目標塊。

而ct:1 獲取正負樣本的所有harr特徵(高維,10的6次方) 2 感知矩陣r提取特徵  3 訓練貝葉斯分類器,獲得引數 4 取樣,計算分類器響應,響應最大的即為目標塊

比較mil與ct:1 初始特徵維度不一樣 2 ct降維的同時較好的保留了原高維向量資訊;mil選取了分類效能較強的特徵作為訓練器輸入 4 ct 貝葉斯分類器 ;mil boosting提公升了

貝葉斯分類器的效能 

[1] multiple instance boosting for object detection. paul viola. 

visual tracking with online multiple instance learning.

機器學習 多示例學習MIL

根據訓練資料的歧義性大小,大致可以把在該領域進行的研究劃分為三種學習框架 監督學習 非監督學習和強化學習。監督學習的樣本示例帶有標記 非監督學習的樣本示例沒有標記,因而該學習模型的歧義性較大。多示例學習可以認為是與三種傳統學習框架並列的第四種學習框架,由dietterich等人於1997年提出,提出...

機器學習 多示例學習MIL

根據訓練資料的歧義性大小,大致可以把在該領域進行的研究劃分為三種學習框架 監督學習 非監督學習和強化學習。監督學習的樣本示例帶有標記 非監督學習的樣本示例沒有標記,因而該學習模型的歧義性較大。多示例學習可以認為是與三種傳統學習框架並列的第四種學習框架,由dietterich等人於1997年提出,提出...

多示例學習

多示例學習 multiple instance learning 1 由dietterich等人在1997年提出,其與監督學習 半監督學習和非監督學習有所不同,它是以多示例包 bag 為訓練單元的學習問題。在多示例學習中,訓練集由一組具有分類標籤 label 的多示例包 bag 組成,每個多示例包 ...