目標跟蹤相關知識總結

2021-09-12 11:55:53 字數 2687 閱讀 5355

在cnn的每個卷積層,資料都是以三維形式存在的。可以看成許多個二維疊在一起(,其中每乙個稱為乙個feature map。

1.在輸入層,如果是灰度,那就只有乙個feature map;如果是彩色,一般就是3個feature map(紅綠藍)。

2.在其它層,層與層之間會有若干個卷積核(kernel),上一層每個feature map跟每個卷積核做卷積,都會產生下一層的乙個feature map,有n個卷積核,下層就會產生n個feather map。

每個卷積核具有長寬深三個維度;卷積核的深度與當前影象的深度(feather map的張數)相同。卷積核的個數與下一層需要多少個feather map相同。在cnn的乙個卷積層中:卷積核的長、寬都是人為指定的,長x寬也被稱為卷積核的尺寸,常用的尺寸為3x3,5x5等;例如,在原始影象層 (輸入層),如果影象是灰度影象,其feather map數量為1,則卷積核的深度也就是1;如果影象是grb影象,其feather map數量為3,則卷積核的深度也就是3。

例如300個樣本訓練一次,epoch=1,batchsize = 10 ,iteration=30。

bn層即batch-norm層,一般是深度學習中用於加速訓練速度和一種方法,一般放置在卷積層(conv層)或者全連線層之後,將資料歸一化並加速了訓練擬合速度。

常用位置:conv→bn→relu

如果網路使用sigmod啟用函式,誤差在向前傳遞的時候,經過sigmod單元,需要乘sigmod的梯度,而sigmod的梯度最大是0.25,因此越向前傳遞,誤差就越小了,這就是梯度消散,但是梯度**是什麼?注意誤差在經過全連線或者卷積層時,也要乘以權重w,如果w都比較大,大過sigmod造成的減小,這樣越往前誤差就越來越大,產生梯度**。

bn層的計算圖如下面所示,x是輸入資料,到xhat均值方差歸一化,後面xhat到y其實就是普通的乙個線性變換,類似全連線但是沒有交叉。如果沒有bn層,x直接輸入後面的網路,訓練過程中x分布的變換必然導致後面的網路去調整學習以來適應x的均值和方差,映入了bn層,xhat是乙個歸一化的資料,代價就是網路中多了乙個線性層y,但是前者帶來的效能更加大,因此加速了。

乙個正例,乙個負例,**為正的概率值比**為負的概率值還要大的可能性。所以根據定義:我們最直觀的有兩種計算auc的方法:

1:繪製roc曲線,roc曲線下面的面積就是auc的值

2:假設總共有(m+n)個樣本,其中正樣本m個,負樣本n個,總共有m*n個樣本對,計數,正樣本**為正樣本的概率值大於負樣本**為正樣本的概率值記為1,累加計數,然後除以(m*n)就是auc的值。

auc作為數值可以直觀的評價分類器的好壞,值越大越好。

我們使用lou和閾值判斷是否為目標。計算模型得到的每個檢測框的lou值,用計算出的lou值與設定的lou閾值比較,就可以計算出每個影象中每個類的正確檢測次數(a)。對於每個影象,我們都有ground truth的資料,因此也知道了該影象中給定類別的實際目標(b)的數量。我們也計算了正確**的數量(a)(true possitive)。因此我們可以使用這個公式來計算該類模型的精度(a/b) 

即給定一張影象的類別c的precision=影象正確**的數量除以在影象張這一類的總的目標數量。 假如現在有乙個給定的類,驗證集中有100個影象,並且我們知道每個影象都有其中的所有類(基於ground truth)。所以我們可以得到100個精度值,計算這100個精度值的平均值,得到的就是該類的平均精度。 

即乙個c類的平均精度=在驗證集上所有的影象對於類c的精度值的和/有類c這個目標的所有影象的數量。 現在加入我們整個集合中有20個類,對於每個類別,我們都先計算lou,接下來計算精度,然後計算平均精度。所有我們現在有20個不同的平均精度值。使用這些平均精度值,我們可以輕鬆的判斷任何給定類別的模型的效能。 

但是問題是使用20個不同的平均精度使我們難以度量整個模型,所以我們可以選用乙個單一的數字來表示乙個模型的表現(乙個度量來統一它們),我們可以取所有類的平均精度值的平均值,即map(均值平均精度)。 

map=所有類別的平均精度求和除以所有類別。即資料集中所有類的平均精度的平均值。

eao提出的目的也是希望乙個好的***同時擁有好的精度a和魯棒性r,如果直接用a和r的兩個數加權和則有失公允,所以需要重新定義。

那麼乙個理想的eao就是把

resnet結構使用了一種連線方式,即「繞近路」的意思。

其意思就是輸入輸出維度差距較大,就像乙個瓶頸一樣,上窄下寬亦或上寬下窄。1x1 filters 可以起到乙個改變輸出維數(channels)的作用。可以看到,右圖中 1x1 filters把維度(channels)公升高了,輸入輸出維度差距較大。

在卷積神經網路cnn中,決定某一層輸出結果中乙個元素所對應的輸入層的區域大小,被稱作感受野receptive field。用數學的語言就是感受野是cnn中的某一層輸出結果的乙個元素對應輸入層的乙個對映。

目標跟蹤總結

最簡單的目標跟蹤 模版匹配 matchtemplate visual tracking 領域最新 與code tracking learning detection原理分析 tld tracking learning detection 學習與原始碼理解之 一 tld演算法 tld視覺跟蹤技術解析 ...

目標跟蹤小結

一 引言 在需要監控的環境裡,如何能夠判斷出進入特定區域的目標,並且能夠跟蹤目標的軌跡。分為兩種情況 一是靜態背景下的目標跟蹤 二是動態背景下的目標跟蹤。二 靜態背景下的目標跟蹤方法 2 多目標 靜態環境下的多目標跟蹤,需要確定每個目標的特徵,位置,運動方向,速度等資訊。3 預處理 由於獲得的影象總...

目標跟蹤小結

一 引言 在需要監控的環境裡,如何能夠判斷出進入特定區域的目標,並且能夠跟蹤目標的軌跡。分為兩種情況 一是靜態背景下的目標跟蹤 二是動態背景下的目標跟蹤。二 靜態背景下的目標跟蹤方法 2 多目標 靜態環境下的多目標跟蹤,需要確定每個目標的特徵,位置,運動方向,速度等資訊。3 預處理 由於獲得的影象總...