物體檢測的一些概念(1)

2021-08-07 07:20:22 字數 1463 閱讀 3630

**:

1、遷移學習

遷移學習也即所謂的有監督預訓練(supervised pre-training),我們通常把它稱之為遷移學習。比如你已經有一大堆標註好的人臉年齡分類的資料,訓練了乙個cnn,用於人臉的年齡識別。然後當你遇到新的專案任務是:人臉性別識別,那麼這個時候你可以利用已經訓練好的年齡識別cnn模型,去掉最後一層,然後其它的網路層引數就直接複製過來,繼續進行訓練。這就是所謂的遷移學習,說的簡單一點就是把乙個任務訓練好的引數,拿到另外乙個任務,作為神經網路的初始引數值,這樣相比於你直接採用隨機初始化的方法,精度可以有很大的提高。

分類標註好的訓練資料非常多,但是物體檢測的標註資料卻很少,如何用少量的標註資料,訓練高質量的模型,比如我們先對imagenet資料集先進行網路的分類訓練。這個資料庫有大量的標註資料。

2、iou(交並比)

物體檢測需要定位出物體的bounding box,就像上面的一樣,我們不僅要定位出車輛的bounding box 我們還要識別出bounding box 裡面的物體就是車輛。對於bounding box的定位精度,有乙個很重要的概念,因為我們演算法不可能百分百跟人工標註的資料完全匹配,因此就存在乙個定位精度評價公式:iou。 

iou表示了bounding box 與 ground truth 的重疊度,如下圖所示:

矩形框a、b的乙個重合度iou計算公式為:

iou=(a∩b)/(a∪b)
就是矩形框a、b的重疊面積佔a、b並集的面積比例:

iou=si/(sa+sb-si)
3、nms

nms也即非極大值抑制。在最近幾年常見的物體檢測演算法(包括rcnn、sppnet、fast-rcnn、faster-rcnn等)中,最終都會從一張中找出很多個可能是物體的矩形框,然後為每個矩形框為做類別分類概率:

就像上面的一樣,定位乙個車輛,最後演算法就找出了一堆的方框,我們需要判別哪些矩形框是沒用的。 

所謂非極大值抑制:先假設有6個矩形框,根據分類器類別分類概率做排序,從小到大分別屬於車輛的概率分別為a、b、c、d、e、f。

(1)從最大概率矩形框f開始,分別判斷a~e與f的重疊度iou是否大於某個設定的閾值;

(2)假設b、d與f的重疊度超過閾值,那麼就扔掉b、d;並標記第乙個矩形框f,是我們保留下來的。

(3)從剩下的矩形框a、c、e中,選擇概率最大的e,然後判斷e與a、c的重疊度,重疊度大於一定的閾值,那麼就扔掉;並標記e是我們保留下來的第二個矩形框。

就這樣一直重複,找到所有被保留下來的矩形框。

物體檢測中的mAP含義

1.對於某個類別 c c 在某一張上,首先計算 c role presentation style position relative c c在一張上的pr ecis ion pre cisi on precis ion 在一張圖 片上類別 c識別正 確的個數 也就是 iou 0.5 一 張 上 類...

基於特徵點的物體檢測

本教程是一種用於基於在參考影象和目標影象之間找到點對應關係來檢測特定物件的演算法。儘管尺度變化或平面內旋轉,它仍可以檢測物體。它對於少量的平面外旋轉和遮擋也很穩健。這種物件檢測方法最適用於呈現非重複紋理圖案的物件,這會產生獨特的特徵匹配。對於均勻著色的物件或包含重複圖案的物件,此技術不太適用。請注意...

訓練自己的物體檢測模型

資料集 一般有兩個 使用labelimg自己標註,或者使用網上開源的資料集。本文使用的是開源的voc 2007,總共有20個分類。資料集包括5001張,以及對應的.xml檔案,分別存放在image和annotation資料夾中。本文通過.csv檔案生成.record檔案,如果習慣直接使用.xml檔案...