目標檢測 YOLOv1總結

2021-10-13 07:41:49 字數 1071 閱讀 5318

yolov1筆記

faster-rcnn筆記

❔還存在什麼問題?

yolov1檢測精度低於當時的先進網路演算法

yolov1容易產生物體定位錯誤

yolov1對小目標的檢測效果不好(每網格只能**兩個物體)

✨**概述

?1.abstract

乙個單一的神經網路在一次檢測中直接從完整的影象**邊界框和類別概率(單一的檢測網路可以實現端到端的優化)。yolov1在檢測過程中相較於其他優秀的演算法對比,會產生更多的定位錯誤但是更少的誤檢背景資訊。

端到端:端到端學習是一種解決問題的思路,與之對應的是多步驟解決問題,也就是將乙個問題拆分為多個步驟分步解決,而端到端是由輸入端的資料直接得到輸出端的結果。(簡而言之就是不要預處理和特徵提取,直接把原始資料扔進去得到最終結果)

?2.introduction

將物件檢測重新定義為乙個單一的回歸問題,直接從影象畫素到邊框座標和類概率,只需要對影象檢測一次就能實現定位與識別。yolo在訓練和測試時都能夠看到一整張影象的資訊,因此yolo在檢測物時能很好的利用上下文資訊,從而不容易在背景上**出錯誤的物體資訊。

但是存在一些缺點:

yolov1檢測精度低於當時的先進網路演算法

yolov1容易產生物體定位錯誤

yolov1對小目標的檢測效果不好(每網格只能**兩個物體)

?3.unified detection

3.1 network design

網路設計源於google網路模型,包含24個卷積層,2個全連線層,但而外使用了乙個 1 * 1的簡化層。

3.2 training

訓練細節:

網路結構中:前20個卷積層 + 平均池化層 + 全連線層 進行一周的訓練

由於檢測需要視覺細粒度資訊:輸入有224 *224 變為 448 * 448

使用影象的高與寬規格化邊框的寬高:讓邊框的計算大小在0~1之間。

最後一層所用啟用函式:

增加邊框座標**損失:λcoord=5, λnoobj= 0.5

**邊框高度與寬度的平分根:大的邊界框中小偏差比小邊界框中的小偏差影響小

損失函式:

附錄

目標檢測之YOLOv1

you only look once unified,real time object detection yolo 一體化的,實時的物體檢測 翻譯 詳解 1 2 1 yolov1框架 步驟 1 resize成448 448,分割得到7 7網格 cell 2 cnn提取特徵和 卷積層負責提取特徵。全...

Caffe(10) 實現YOLOv1目標檢測

yolov1核心思想 從r cnn到fast r cnn一直採用的思路是proposal 分類 proposal提供位置資訊。分類提供類別資訊 精度高,但速度不行。yolov1更為直接一點,直接在輸出層回歸bounding box的位置和其所屬類別,整張圖作為網路的輸入,把object detect...

YOLO v1整體檢測框架

yolo演算法採用乙個單獨的cnn模型實現end to end的目標檢測,整個系統如圖所示 首先將輸入resize到448x448,然後送入cnn網路,最後處理網路 結果得到檢測的目標。相比r cnn演算法,其是乙個統一的框架,其速度更快。具體如下 將輸入影象按照模型的輸出網格 比如7x7大小 進行...