目標檢測part1

2021-10-04 19:14:07 字數 1762 閱讀 8872

1*1卷積

googlenet/inception

可看作全連線

1、增加非線性

2、特徵降維

空洞卷積

在相同的感受野的情況下,使用空洞卷積得到更大的特徵圖,獲得更密集的資料,而更大的特徵圖有助於目標檢測和目標分割任務中對小物體的識別分割效果

轉置卷積

不是真正意義上的反卷積,是一種上取樣的方式,讓小變成大

目標識別——目標檢測——多目標檢測

傳統目標檢測方法:

滑動視窗+傳統機器學習分類器:採用不同尺寸的視窗

滑動視窗+卷積神經網路cnn:提公升識別的準確率

全卷積神經網路fcn

交並比iou = detection result ∩ groundtruth / detection result ∪ groundtruth

一般設定閾值為大於等於0.5

map平均準確率均值

每乙個類別都可以根據recall和precision繪製一條曲線,ap就是該曲線下的面積,map就是多個類別ap的平均值,介於0~1之間,且越大越好

map

知道top-1到top-n的recall和precision,樣本數越多,recall呈上公升,precision可能下降,繪製precision-recall曲線圖

pascal voc challenge

non-max supression非極大值抑制

選出置信度最高的候選框(如果和得分最高的候選框重疊面積iou大於一定的閾值,則刪除)

rcnn

spp-net:提公升檢測速度

改進:只需要將原圖做一次卷積操作,就可以得到每個候選區的特徵

image——crop/warp——conv layer——fc layer——output

image——conv layer——spatial pyramid pooling ——fc layer——output

spatial pyramid pooling*

特徵對映:輸入的某個位置的特徵方應在特徵圖上也是相同位置

將ss演算法提取的2000個區域位置記錄下來,通過比例對映到conv5輸出feature map上,提取出候選區域的特徵圖m,然後將m送人到金字塔池化層進行計算

缺點:得到的特徵圖的大小不一樣。無法訓練svm

金字塔池化層:使用三種固定輸出大小的max-pooling

fast r-cnn

改進:share computation of conv layers between proposals and image

svm-softmax

roi-pooling:spp-net的簡化版;只使用一種固定輸出大小的max-pooling:將每個區域均勻分成m*n塊,對每一塊進行max-pooling,將特徵圖大小不一的候選區域轉變為統一的資料,送人下一層

將bbox regression放進來神經網路內部,與region分類合併成為乙個multi-task模型

faster r-cnn

問題:ss演算法只能執行在cpu

改進:區域生成網路rpn+fast r-cnn

rpn輸入:最後乙個卷積層的輸出

loss:4個部分(2分類+2回歸)

rpn_loss

訓練流程:

目標分割part1

影象分割 cv三大任務 影象分類 目標檢測 目標分割 普通分割 將不同分屬不同物體的畫素區域分開 語義分割 分類出每一塊區域的語義 這塊區域是什麼東西 例項分割 給每個物體編號,persona personb 資料集 pascal voc ms coco fcn2014年提出 fully convo...

部落格推薦 Part 1

部落格推薦 part 1 博起 了一年多了,寫過一百多篇博文,看過的博文更是不計其數。剛剛看到乙個部落格的文章,實在把我笑到不行。然後就想推薦給大家。繼而就心血來潮,想把自己喜歡的一些部落格陸續的推薦給大家。也許,你也會喜歡呢?說明 仙仙,本名張仙!是湖南的一位autoware兄弟,跟我一起混跡內蒙...

C Handle 控制代碼 part1

本文是我學習c 沉思錄第6章的筆記 本文主要講述了handle類的概念,定義方法以及寫時複製技術。在前文 surrogate 類 的講解中我們了解到了 的實現方法.類有很多好處,但是麻煩的是每次都得進行複製.如果該類是經常使用並且member很多的話,這樣複製的消耗是十分客觀的.因此這裡就要介紹另外...