SGM 代價聚合學習筆記

2021-10-10 07:48:29 字數 1671 閱讀 3765

以下將基於個人理解,分別從sgm的核心公式,代價計算步驟,代價聚集。由於筆者學識所限,如有錯漏或者理解錯誤的地方,敬請批評。

由於雜訊等因素,基於畫素的代價計算通常是不明確的,並錯誤匹配比正確匹配的代價更低。因此,增加了乙個附加的約束,通過懲罰相鄰差的變化來支援平滑性。畫素代價和平滑項約束可以用能量函式e(d)來表示,能量函式e(d)依賴於深度影象d:

第一項是視差為d的所有畫素匹配代價的總和,第二項為畫素p所有鄰近畫素q視差改變小於等於1的約束懲罰項p1,第三項為畫素p所有鄰近畫素q視差改變大於1的約束懲罰項p2。對視差變化小的使用較低的懲罰,調整對傾斜或彎曲表面的適應;對於視差變化大的懲罰來保留不連續的面,不連續性的面通常是可見的強度變化。通過採用p2來調整梯度強度,p2′ 為p2的初始值,一般設定為遠大於p2>p1。

​ 的數。

立體匹配的問題現在可以歸結為尋找能使能量最小化的視差影象d的問題了,但是,在二維的影象中對於存在不連續的能量全域性最小化即是np完全問題(即多項式複雜程度的非確定性問題)。相比之下,利用dp可以在多項式有效地時間內實現影象單行(即一維)的最小化。但是,在二維影象中,很難將單個影象行的一維優化相互關聯。例如,在乙個方向(即影象行)上非常強的約束與在另乙個方向(即影象列)上沒有或較弱得約束結合在一起。

這就產生了將各個方向的匹配成本平均地聚集在一起的新思想。對於畫素p和視差d,聚合代價s是通過對各方向一維最小代價路徑的代價求和來計算的。

l『r(p,d)表示沿著某一路徑r遍歷視差為d的所有畫素p的代價,

第一項為資料項,匹配代價值c,第二項是平滑項,路徑上前乙個畫素p-r的最小代價包括對不連續性的適當懲罰。

l』的值沿路徑永久增加,可能會導致非常大的值。然而,可以通過減去減去前乙個畫素的最小路徑代價來改變。

這個修改不會改變通過視差空間的實際路徑,因為對於乙個畫素p的所有視差,減去的值都是常數,因此,最小值的位置不會改變;然而,上限為

畫素的總路徑代價值s

s的上限很容易確定為s≤16(cmax +p2),此時是16條路徑時。

c(p,d)是大小為w×h×d(w為影像寬度,h為影像高度,d則為事先給定的視差範圍)的三維矩陣來儲存每個畫素在視差範圍內每個視差下的匹配代價值。矩陣c通常稱為dsi(disparity space image),這個長方塊也是我們常說的視差空間。下圖為dsi的示意圖:

s(p,d)是乙個和c(p,d)大小一樣的三維矩陣,用來儲存每個畫素的聚合代價值。

MongoDB學習筆記(11) 聚合

mongodb中聚合 aggregate 主要用於處理資料 諸如統計平均值,求和等 並返回計算後的資料結果。有點類似sql語句中的 count mongodb中聚合的方法使用aggregate aggregate 方法的基本語法格式如下所示 db.collection name.aggregate ...

立體匹配演算法之引導濾波代價聚合

本文內容來自於2014年pauline tan以及 pascal monasse在ipol上發表的文章 stereo disparity through cost aggregation with guided filter 該文獻最主要的貢獻是在區域性立體匹配演算法中 提出了用引導濾波器進行 代價...

學習筆記 機器學習 1 1代價函式

目前在學習 coursera 的machine learning課程,決定做乙份筆記以便記錄學習情況。這是機器學習的 第一章第一節 cost function 代價函式 通過這一節的學習將會了解到以下兩個函式公式的含義 函式1.1.1 hypothesis h theta x theta 0 the...