視覺SLAM流程總結

2021-09-05 10:29:22 字數 842 閱讀 1959

從九月開學到現在小半年了,slam也學了三個月了,今天看完了orb-slam2**,算是入門了吧。小總結一波。

(ps:目前還是入門級,本文只是個人學習的一些經驗和slam的乙個大概流程)。

下面從我的經驗上列一下要準備的工具:

視覺slam14講這個不必多說了,目前堪稱聖經;

ubuntu筆記本16.04或14.04都可以,如果沒接觸過ubuntu,建議使用14.04,不然你可能會跑不起來14講例程;

相機或者機械人這是必須的,雖然你可能暫時並用不到;

一本opencv書籍如果有多檢視幾何那就最好了;

剛開始大概只需要這些,高博最新翻譯的機械人學中的狀態估計比14講還要基礎,值得一看。

一張圖來說明vo的工作流程:

p0、p1、p2為世界座標系下空間點座標(就是你屋裡各個物體的位置)

x、y、z為相機座標系,方框就代表相機

相機0、1、2代表相機運動軌跡

當相機在位置0時觀測到了p0,我們得到了乙個畫素座標(u,v),根據相機內參我們可以計算出p0點在相機座標系下的座標。相機運動到位置1時,觀察到了p0和p1,同樣我們可以得到p0、p1在相機座標系下的座標,跟據特徵匹配,p0點是位置0和位置1的共視點。那麼,相機1的外參就是p0點的世界座標到p0點相機座標之間的旋轉矩陣。得到相機1的外參後,我們就能夠計算出p2點的世界座標,同理可以得出相機3的外參。

視覺SLAM 視覺SLAM相關開源演算法總結

第乙個實時 單目slam系統,基於ekf優化。單目,只有tracking,進行了有效的特徵點對的匹配。之後有enft slam.適用於各種各樣的相機,除了常見的單目,雙目,rgb d的分類,還適用於透視 魚眼甚至自己設計的相機。通過使用apriltag基準標記實現slam 76 提出了一種基於李代數...

視覺SLAM(一) 視覺SLAM框架

主要參考書目是高翔博士的 視覺slam十四講 中間會記錄一些個人實踐經驗和思考。slam伴隨著機器視覺發展和機械人導航已經相對成熟,形成了合理高效的基本框架。主要包含 感測器資料 前端視覺里程計 後端優化 回環檢測 建圖。採集根據不同應用場景和需求進行選擇,主要有如下幾種感測器 也就是單獨乙個攝像機...

視覺SLAM習題

視覺slam習題彙總 持續更新 ch3矩陣提取 主要是利用 block 對應習題提取左上角3x3矩陣 include include includeusing namespace std int main int argc,char argv 按照官網給出的計算方法,編譯出現 error eigen...