目標檢測之YOLOv1

2021-09-19 10:39:44 字數 1437 閱讀 8352

you only look once:unified, real-time object detection(yolo: 一體化的,實時的物體檢測)

**翻譯:

**詳解:

(1)(2)

****:

1、yolov1框架

步驟:

(1)resize成448×448,分割得到7×7網格(cell)

(2)cnn提取特徵和**:卷積層負責提取特徵。全連線層負責**;

(3)損失函式設計

損失函式的設計目標就是讓座標(x,y,w,h),confidence,classification 這個三個方面達到很好的平衡。簡單的全部採用了sum-squared error loss來做這件事會有以下不足: a) 8維的localization error和20維的classification error同等重要顯然是不合理的; b) 如果乙個網格中沒有object(一幅圖中這種網格很多),那麼就會將這些網格中的box的confidence push到0,相比於較少的有object的網格,這種做法是overpowering的,這會導致網路不穩定甚至發散。 解決方案如下:

2、測試

test的時候,每個網格**的class資訊( pr(class_i | object) )和bounding box**的confidence資訊相乘,就得到每個bounding box的class-specific confidence score

目標檢測 YOLOv1總結

yolov1筆記 faster rcnn筆記 還存在什麼問題?yolov1檢測精度低於當時的先進網路演算法 yolov1容易產生物體定位錯誤 yolov1對小目標的檢測效果不好 每網格只能 兩個物體 概述 1.abstract 乙個單一的神經網路在一次檢測中直接從完整的影象 邊界框和類別概率 單一的...

Caffe(10) 實現YOLOv1目標檢測

yolov1核心思想 從r cnn到fast r cnn一直採用的思路是proposal 分類 proposal提供位置資訊。分類提供類別資訊 精度高,但速度不行。yolov1更為直接一點,直接在輸出層回歸bounding box的位置和其所屬類別,整張圖作為網路的輸入,把object detect...

YOLO v1整體檢測框架

yolo演算法採用乙個單獨的cnn模型實現end to end的目標檢測,整個系統如圖所示 首先將輸入resize到448x448,然後送入cnn網路,最後處理網路 結果得到檢測的目標。相比r cnn演算法,其是乙個統一的框架,其速度更快。具體如下 將輸入影象按照模型的輸出網格 比如7x7大小 進行...