AR 虛實融合文獻閱讀整理(二)

2021-07-28 01:59:51 字數 1839 閱讀 2361

一 增強現實中虛實融合和人機互動技術的研究與應用_黃震宇

基於標誌物的識別,利用opencv和三維圖形引擎ogre實現虛實融合展示系統;

人機互動方案採用primesense的深度攝像頭,通過計算機視覺處理,重建了人體三維谷歌系統定義體感語義,制定動作-指令對映表。結合體感開發平台openni,實現肢體、全身控制。

一 緒論啥的

1.虛實融合

兩個技術點:幾何和光照

精度、比例和遮擋關係等-抗鋸齒 曲面細分

炫光透明折射反射陰影

2.三維註冊

/感測器註冊

gps,gsensor,陀螺儀,ccd(發led光來測目標基準間角度),超聲波,mems

/計算機視覺註冊 artoolkit等

/綜合註冊

根據影象特徵點的跟蹤定位,ptam方案,使用的是lucas-kanade的光流跟蹤演算法,不需要特定標誌物,基於自然影象

3.互動 資料手套 動作捕捉儀

二 基礎知識介紹

1.數字影象

2.影象分割

主要用的演算法包括 邊緣檢測、區域分割、形態學方法、閾值分割、分類與聚類演算法

3.輪廓提取

4.攝像機標定-世界座標系+攝像機座標系+影象平面座標系

-----世界-攝像機

-----影象平面和影象畫素座標系

------線性攝像機模型/平面定標/模板匹配等

三 開發平台

1.opencv

2.ogre常用的渲染方式有opengl和到d3d,但不適合在大型程式中直接用,使用第三方圖形渲染引擎 ogre 遵循lgpl (火炬之光用的圖形引擎)

其實吧 有點像更底層的unity

3.體感開發平台

openni beckon iisu

四 系統

系統實現

1.標誌物,用的是artoolkit的

用的是opencv的庫 cvcapture * gcap;

gcap = cvcreatecameracaputer(0);

image * frame = cvqueryframe(gcap);

3.檢測標誌物過程

4.確定攝像機位置

5.標誌物識別過程

四邊形輪廓-影象正規化-模板匹配-識別

5.虛擬物體註冊和渲染 用的是ogre工具,大致流程是3dsmax模型-匯出為scene格式(場景匯出外掛程式ogremaxsceneexporter)-ogre

五 基於深度攝像頭的體感漫遊系統

深度攝像頭-谷歌重建-谷歌追蹤-體感語義-互動指令

用的是primesensor,基於openni平台

具體實現可以查閱相關**。

二 桌面增強現實環境下的虛實融合和三維互動技術研究_陳亮

一 仍然是什麼緒論,不得不吐槽國內的碩士**,各種貼上複製。。略過

二 虛實融合和三維互動技術

放棄這篇文章了,寫的都是啥。。。各種貼上來的東西 一點自己的思路都沒有,瀏覽一下看看技術要點吧,大概用的也是openinventor,3d場景用的是oiv的coin3d。感覺做了很多東西發了很多**,然而思路太亂了。

如何閱讀文獻

文獻分類 文章全名 作者 刊物縮寫 出版年給文章命名,用多級目錄分類對文章進行分類,文獻累計到一定程式就分類採用硬拷貝的方式進行集中整理。當一篇文章涉及多個主題的時候,多級目錄分類就不太靈光了,我目前的做法是部分兩邊都放 部分只放最重要的主題。將我的博士 分成6個小方向。然後將資料分成6個部分。每個...

文獻閱讀(1)

針對的問題 利用商用wifi裝置進行aoa估計 面臨的挑戰 天線數量的限制 相位測量中引入的未知的相位偏移 解決方案 利用人體對手機進行自然旋轉,計算不同角度測量的相位差分,以消除相位偏移,提出d music演算法計算差分生成的等效入射訊號角度。再利用慣性感測器 陀螺儀 測得的旋轉角度計算初始和最終...

如何閱讀文獻

閱讀文獻應該是乙個由點到面再到點的過程。選取當下研究中的乙個熱點話題,檢索較全的文獻。知道目前對這個問題的共同看法和分歧。然後,擴充套件開,逐步擴充套件自己的視野,構建個人的專業知識結構和看法。有了一定的知識基礎以後,對於繁雜的文獻,要有個人的判斷。追蹤某個專題 某個專家的研究進展,比較對於同一專題...