機器學習筆記之PCA SIFT總結

2022-02-16 22:44:11 字數 1393 閱讀 5697

不多說,直接上乾貨!

pca-sift演算法

在描述子構建上作了創新,主要是 將統計學中的主成分分析(pca)應用於對描述子向量的降維,以提高匹配效率 。

pca 的原理是:一般有效訊號的方差大,雜訊的方差小;通過pca可以降維濾除雜訊,保留訊號。 

1、演算法分析

pca-sift與標準sift有相同的亞畫素位置(sub-pixel),尺度(scale)和主方向(dominant orientations),但在第4步計算描述子的時候,它用特徵點周圍的41×41的像斑計算它的主元,並用pca-sift將原來的2×39×39維的向量降成20維,以達到更精確的表示方式。 

演算法步驟如下: 

(1)構建描述子的區域選定為以特徵點為中心的41x41矩形(已與特徵點主方向對齊); 

(2)計算39x9矩形內每個畫素對水平、垂直兩個方向的偏導數(最外層畫素不計算偏導數)。得到乙個39x39x2=3042維的向量,對其歸一化; 

(3)假設有n個特徵點,那麼所有特徵點描述子向量構成乙個nx3042的矩陣。對這n個向量計算nxn協方差矩陣; 

(4)計算協方差矩陣的前k個最大特徵值所對應的特徵向量,這k個向量組成乙個3042xk的投影矩陣; 

(5)將nx3042的描述子矩陣與3042xk的投影矩陣相乘,得到nxk的矩陣,即降維描述子向量組成的矩陣。此時n個特徵點的描述子向量均為k維。文中作者經過實驗,取k=36。 

演算法步驟還有另一種描述,見這裡。 

該演算法的創新之處 在於降低描述子維度的同時濾除了部分描述子向量中的干擾資訊,有較好的魯棒性 。同時該演算法為後人研究描述子開啟了乙個方向,例如gloh演算法在描述特徵點時也是用pca將16*17維的向量降為40維,但gloh演算法構建描述子的方法不同,它是基於對數極座標來構建的。 

2、比較

(1)結果比較:pca-sift所得的描述子在旋轉、尺度變換,透視變換,新增雜訊匹配的情形下,匹配均大幅領先於sift;在亮度變換時,與傳統sift不相上下。在匹配時所得的正確點對也多於傳統sift。可見pca-sift生成的描述子質量很高。sift和pca-sift的比較 。在執行時間方面,pca-sift在特徵點提取、描述子計算中略快於sift;但在後續的描述子匹配過程中,pca-sift的速度大大超過sift的速度。 

(2)優缺點比較: 

△ sift: 

維數:128 

缺點:維數高、不完全的仿射不變 

優點:需要較少的經驗主義知識,易於開發 

△ pca-sift: 

維數:可變,推薦20或者更少 

缺點:不完全的仿射不變;投影矩陣需要一系列有代表性的影象;這個矩陣只對這類影象起作用 

優點:保留不變性的同時低維,大大減少了計算時間。

《機器學習》總複習(上)

1.1從兩個問題談起 1.相關概念 1 機器學習 是人工智慧的另一部分,也是核心技術。其利用經驗 建立統計模型 概率模型,去解決問題。是對某個實際問題建立計算模型,並利用已知的經驗來提公升模型效果的一類方法。2 模式識別 用計算的方法根據樣本的特徵將樣本劃分到一定的類別中去。2.相關流程 1 乙個標...

機器學習筆記之 遷移學習

關於遷移學習不錯的博文,值得學習 1.2.a survey on transfer learning,sinno jialinpan,qiang yang,ieee trans 個人關於遷移學習的粗淺理解 在機器學習領域,我們的任務是對乙個模型給定充足的資料,對機器學習模型進行訓練 微調和優化,得到...

機器學習筆記之緒論

1.1引言 機器學習所研究的主要內容,是關於在計算機上從資料中產生 模型 model 的演算法,即 學習演算法 learning algorithm 1.2基本術語 資料集 data set 其中每條記錄是關於乙個事件或物件的描述,稱為乙個 示例 instance 或 樣本 sample 特徵向量 ...