近期看大家都在利用光場相機來得到影象的深度,進而對影象進行恢復,以及前景背景的分離。
之前自己的手機也有乙個功能,就是先拍照,後對焦。說白了其實就是拍很多張不同焦距**,然後演算法合成,貼乙個帖子,想深入學習的可以看一下。
1.主鏡頭和感光元件之間有乙個微鏡頭陣列,啥?啥是微鏡頭(很小的鏡頭,就是和晶元乙個道理,把它們集中在很小的一片上)在中間加東西豈不是要把鏡頭堵上了?那後面的感光元件豈不是被微鏡頭擋上了?(這裡沒有說明白,其實微鏡頭之後的感光元件其實就是和微鏡頭匹配的cmos感應器,說白了就是把主鏡頭進來的像又通過了乙個鏡頭,然後到了感光元件。下面貼一張圖)
主鏡頭感應器之間,有乙個
3280*3280
排列的微型鏡頭陣列
主鏡頭和感應器之間
收集到影象資訊之後有兩種演算法:1.n個小影象適當平行移動,疊加求解,其中涉及到了移動,相加和平均。個人理解為每個微鏡頭過來其實否是乙個完整的像,只是角度不同而已,把像進行疊加運算,就可以製造出不同的景深了,當然其中應該涉及到了加權等問題。2.光線束投影法,每個微鏡頭透過來的像的一部分作為延伸,也就是上面圖畫的,經過了cmos後有了焦點,其實那是假設的,演算法進行實現的。
看明白了麼?其實就是把乙個相機分解成了很多小相機,一大堆緊密放在一起的小相機,這樣當然出來的像是有偏差的,通過偏差就可以算出前景,背景,以及景深了。
到這裡想要初步了解的其實也就懂了,想進一步了解的可以移步取其他部落格,這裡只是希望通過本人的理解,讓大家更快地了解光場相機的本質原理。
下面新增一點,光場相機的五維空間(x,y,z,θ,ψ)
其中θ代表光線仰角,ψ代表方位角。
在成像時需要記錄光場的四維資訊。(x,y,u,v)
其中x,y代表光線成像位置,u,v則可以通過夾角關係,定義光線的傳播方向。
本人的拙見,有些地方不夠嚴謹,希望讀者見諒。
對於實質性的問題和錯誤,懇請批評指正,謝謝。
lytro 光場相機 重聚焦
本人剛開始接觸機器視覺領域就是學習解壓lytro光場相機,lytro光場相機是有ng博士創立的lytro公司製造的。根據ng的 描述,光場重聚焦主要通過空域和頻域傅利葉變換來實現。而且ng認為頻域的演算法複雜度要比空域的要低,但是經過整合,空域的計算時間也是比較滿意的,整體上與頻域重聚焦相差無幾。光...
光場相機原理
簡單的說,光場就是光線,它包含光線本身的強度 位置和方向等資訊。一般採用兩個相互平行的平面來表徵光場,如圖所示 若一條光線通過兩個平面uv和st所產生的交點座標分別為 u,v 和 s,t 此時就可以通過光場函式l u,v,s,t 來表示這條光線的分布。l代表光線的強度,而 u,v 和 s,t 共同確...
光場相機原理
簡單的說,光場就是光線,它包含光線本身的強度 位置和方向等資訊。一般採用兩個相互平行的平面來表徵光場,如圖所示 若一條光線通過兩個平面uv和st所產生的交點座標分別為 u,v 和 s,t 此時就可以通過光場函式l u,v,s,t 來表示這條光線的分布。l代表光線的強度,而 u,v 和 s,t 共同確...