深度學習 NMS(非極大抑制)

2021-07-30 16:29:40 字數 766 閱讀 3391

在物體檢測中nms(non-maximum suppression)

非極大抑制應用十分廣泛,其目的是為了消除多餘的框,找到最佳的物體檢測的位置。

在rcnn系列演算法中,會從一張中找出很多個候選框(可能包含物體的矩形邊框),然後為每個矩形框為做類別分類概率

就像上面的一樣,定位乙個車輛,最後演算法就找出了一堆的方框,我們需要判別哪些矩形框是沒用的。

非極大值抑制:先假設有6個候選框,根據分類器類別分類概率做排序,從小到大分別屬於車輛的概率分別為a、b、c、d、e、f。

1、從最大概率矩形框f開始,分別判斷a~e與f的重疊度iou是否大於某個設定的閾值;

2、假設b、d與f的重疊度超過閾值,那麼就扔掉b、d;並標記第乙個矩形框f,是我們保留下來的。

3、從剩下的矩形框a、c、e中,選擇概率最大的e,然後判斷e與a、c的重疊度,重疊度大於一定的閾值,那麼就扔掉;並標記e是我們保留下來的第二個矩形框。

4、一直重複這個過程,找到所有曾經被保留下來的矩形框。

非極大值抑制(nms)

非極大值抑制顧名思義就是

抑制不是極大值的元素,搜尋區域性的極大值。

例如在物件檢測中,滑動視窗經提取特徵,經分類器分類識別後,每個視窗都會得到乙個分類及分數。但是滑動視窗會導致很多視窗與其他視窗存在包含或者大部分交叉的情況。這時就需要用到nms來選取那些鄰域裡分數最高(是某類物件的概率最大),並且抑制那些分數低的視窗。

NMS 非極大抑制

因為去修改deploy.prototxt中nums threshold引數,想到研究一下nms非極大抑制,記錄一下簡單的理解。非極大抑制用在目標檢測後篩選最終結果,更精確的定位。一般分三步 1 置信度排序並選出框置信度最高的框 2 計算其他框與最高置信度框的iou,若iou大於閾值 nums thr...

深度學習原理29 非極大值抑制(NMS)

目標檢測中的乙個演算法 non maximum suppression就是需要根據score矩陣和region的座標資訊,從中找到置信度比較高的bounding box。對於有重疊在一起的 框,只保留得分最高的那個。1 nms計算出每乙個bounding box的面積,然後根據score進行排序,把...

非極大值抑制(NMS)

非極大值抑制 nms 非極大值抑制顧名思義就是抑制不是極大值的元素,搜尋區域性的極大值。這個區域性代表的是乙個鄰域,鄰域有兩個引數可變,一是鄰域的維數,二是鄰域的大小。這裡不討論通用的nms演算法,而是用於在目標檢測中用於提取分數最高的視窗的。例如在行人檢測中,滑動視窗經提取特徵,經分類器分類識別後...