CTPN訓練自己的資料集過程大白話記錄

2022-08-04 23:51:14 字數 1210 閱讀 1708

一.演算法理解

此處省略1萬字。。。。。。。。。。。。。。

二.訓練及原始碼理解

配置以下3步:

在utils資料夾和utils\bbox資料夾下建立__init__.py檔案

在utils\bbox資料夾下執行python setup.py install

將.pyd檔案拷貝到utils\bbox資料夾下

資料格式:首先我是用精靈標註手寫體區域存在json檔案中,josn解析提取名和標籤座標存在txt中,格式:768,1622,1124,1622,1124,1750,768,1750,chinese,###。

總共4個角8個座標,還有乙個標籤,全部用的chinese,然後用split_label.py將資料拆分成乙個個小框,格式:188,399,191,430只有左上角和右下角座標。將資料image資料夾和label資料夾(拆分後的資料標籤)存放在mlt資料夾裡即可。

main/trian.py即可訓練核心**:

bbox_pred, cls_pred, cls_prob = model.model(input_image)  生成**框,類別得分和概率
lstm_output = bilstm(rpn_conv, 512, 128, 512, scope_name='bilstm') 雙層lstm,考慮前後特徵的聯絡
bbox_pred = lstm_fc(lstm_output, 512, 10 * 4, scope_name="bbox_pred") 

cls_pred = lstm_fc(lstm_output, 512, 10 * 2, scope_name="cls_pred") 全連線分類得分和候選框**

total_loss, model_loss, rpn_cross_entropy, rpn_loss_box = model.loss(bbox_pred, cls_pred, input_bbox,

input_im_info) 模型的各種損失,交叉熵損失,rpn損失

demo.py進行**,包括小框合併,**結果展示如下

YOLO訓練自己的資料集

很高興現在已經有幾百人通過我的教程成功地使用yolo處理自己的資料集。最近一直在用cnn的模型做影象二分類,但苦於效果不佳,於是把影象分類問題轉作目標識別問題。做目標識別選擇了yolo you only look once 乙個最近推出的方法,突出的優點就是速度快。查詢了網上關於yolo的訓練自己資...

mmdetection訓練自己資料集的配置詳情記錄

檢測attention 原始碼注釋發布於我的github 近期更新到最新版 後面有些語法在csdn的markdown上不支援,導致顯示bug,我就懶得改了,有需求直接訪問原部落格檢視。for version 0.6.0 訓練需要改動的配置為 以一張的車分割為例。檔案結構 如圖 其中car.json是...

用mmdetection訓練自己的資料集

接觸目標檢測也有半年時間了,看了一些,但是都是看得馬馬虎虎,這次先用mmdetection跑一下faster rcnn,後面徹底熟悉了,再分析它的執行過程。可能有人說先打牢基礎,看這看那,我認為還是得及時地和實際結合,如果有不對指出,請批評指正。mmdetection是商湯提出來的乙個框架吧,如果只...