抓取檢測資料集Cornell資料解析

2021-10-03 07:27:26 字數 1703 閱讀 1638

從cornell資料集**: 中,我們可以得到比較詳細的資料集格式資訊,但是其中關於pcd檔案的說明不太詳細,經過一段時間的查詢,記錄一下。

以pcd0100.txt為例,開啟檔案,第一行就是「# .pcd v.7 - point cloud data file format」,說明檔案採用的pcd v.7格式,關於這個格式的說明可以看pcl**:

其中,我想強調乙個地方,當fields行為「x y z rgb」時,下面的資料行都是每行4個數,如-0.18716 -0.20571 0 4.808e+06,他們分別表示這個點在三維空間中的座標為(-0.18716, -0.20571, 0),所在座標系是寫pcd檔案時的參考座標系,這一點的灰度值是4.808e+06,幾乎就是白色。

但cornell中的pcd又與官網介紹不同,不同之處是fields行為「x y z rgb index」,比官網中多了index,cornell**上說index是對行數和列數的編碼,每乙個index對應png中的乙個點,解碼公式如下:

row = int(index / 640) + 1

col = (index % 640) + 1

注意,這裡的row和col都是從1開始的。cornell說他們的的大小是480*640,但是當我們看pcd檔案時,發現資料行並沒有那麼多,pcd0100.txt就只有253674個,我們在python中新建乙個480*640的全黑cv影象,index按上述公式解碼,把每個index對應的座標都設為白色,最終結果和資料集中的rgb圖對應如下:

比較後發現,某些邊緣處的深度值沒有測到,在寫入時就把沒測到的點忽略了,所以txt檔案中的資料會比480*640少。我們在處理時,用opencv或imageio把缺失的點全部置0就ok了。

補充一點:

資料集中深度圖的世界座標系如下所示:xyz-紅綠藍

包括三個壓縮檔案:origin, data-1, data-2

其中origin中的backgrounds是拍攝資料集的背景圖,processdata是作者提供的一些處理程式(處理啥的不知道,沒用過),rectanglelable是矩形框標籤視覺化圖。

data-1和data-2的內容是一類(放乙個資料夾裡太大,所以分成兩個資料夾)。其中,pcd*.txt是點雲檔案,pcd*cneg.txt是負樣本抓取標籤,pcd*cpos.txt是正樣本抓取標籤,pcd*d.tiff是深度圖,png是原始rgb影象。

資料集中的抓取框標籤示例:

人臉檢測資料集 人臉資料集 LaPa

landmark guided faceparsing dataset lapa 是京東人工智慧發布的資料集,可用於人臉關鍵點檢測 106個點 和人臉解析 11個類別,包含了背景類 簡介 資料集一共有22176張彩色影象,以及對應的標籤影象和關鍵點資訊檔案,其中訓練集有18176張影象,佔比82 驗...

文字識別 文字檢測資料集

1 chinese text in wild ctw 包含平面文字,凸起文字,城市文字,農村文字,低亮度文字,遠處文字,部分遮擋文字。影象大小2048 2048,資料集大小為31gb。8 1 1 比例訓練集 25887張影象,812872個漢字 測試集 3269張影象,103519個漢字 驗證集 3...

目標檢測之常用資料集

我們在利用模型檢測實際應用問題的時候,通常需要使用自己標註和收集資料集來進行訓練。但對於不同演算法效能的比較,我們常常需要一些基本的資料集來進行橫向對比。下列是一些常用的目標檢測資料集 pascal voc挑戰在2005年至2012年間展開。pascal voc 2007 9963張影象,24640...