推 StarNightPtt: 有神快拜 02/29 12:05
→ kira925: 16K......好,別爭了大家解散(? 02/29 12:08
推 ptag720: 也許不是那麼難,利用眼球追蹤,對眼睛聚焦的部分運算就 02/29 13:08
→ ptag720: 好了 02/29 13:08
眼球追蹤時,要考慮視角的問題,首先來一張圖
http://i.imgur.com/UWZ9b2K.jpg
人眼單眼視角為140度,但人眼可以左右移動各30度,所以雙眼全視角是200度
如果顯示的視角小於140度,人眼不動就可以看見黑邊,沉浸感降低。
Cardboard的視角大約 atan(65/50)x2=104.86度 所以會有黑邊。
視角140度,換算所需的Cardboard透鏡焦距為65/tan(140/2)=23.66mm
當透鏡是23.66mm 時透鏡解析度為0.0028mm
大約需要64k的5.87"螢幕才能達的到無格子無黑框(天呀!)
所以說視角愈廣,所需的畫素要愈多,即使眼球追蹤,也需要大視角
→ OscarShih: 不過我的1440p的手機接上VR眼鏡,格子已經算能接受了 02/29 13:11
→ OscarShih: 大多的CG或即時運算也都會做反距齒,別太誇張都還好 02/29 13:11
推 OscarShih: 不管怎樣,光上到QHD需要的運算效能就嚇死人了 02/29 13:14
如果兩個格子中間的那條線小於透鏡解析度(0.006mm)
一面全白的畫面,就不會看到網紋,這時紗窗感就少很多。
→ Kamikiri: 紗窗效應是硬體解析太低 靠軟體運算很難解決 02/29 14:51
→ Kamikiri: 就算追蹤瞳孔去運算應該也沒用 02/29 14:52
※ 編輯: jyhlih (36.224.138.44), 02/29/2016 15:00:08
推 Kamikiri: 其實用的時候注意力會被轉移 紗窗別太嚴重都可以忽略 02/29 15:00
推 cau0424: 想說以前看到的文都找不到了,結果空氣大立刻生一篇出來 02/29 16:43
推 ptag720: 是的,我的意思是說眼睛聚焦的部分再顯示出細節 02/29 18:49
→ ptag720: 眼睛沒聚焦的部分顯示出一個大略的輪廓與色彩就ok 02/29 18:50
→ ptag720: 回Kami大 到時候如果能做出單眼16K螢幕,電腦一定推不動 02/29 18:51
→ ptag720: 但是裡用瞳孔追蹤就只要在眼睛聚焦的部分顯示出細節 02/29 18:51
→ ptag720: 其他部分就差不多差不多 02/29 18:51
→ OscarShih: 這樣需要更多運算吧XD 02/29 20:16
推 Kamikiri: 可是螢幕就算用16K 軟體也不用16K啊 02/29 20:39
→ Kamikiri: 如果硬體解析夠高 軟體解析維持在1080也不會有紗窗 02/29 20:40
推 cau0424: 硬體能上16K的造價應該遠大於軟體上16K吧 02/29 21:25
→ cau0424: 回ptag大 整個顯示區域都有可能是你的瞳孔聚焦範圍阿 02/29 21:28
→ cau0424: 只要你眼球有可能會轉過去看的範圍硬體就必須能上 02/29 21:29
→ cau0424: 那個解析度,軟體略過細節只是拿來偷效能而已的 02/29 21:29
→ cau0424: 假設你的螢幕是4K,極限就是4K了 02/29 21:31
→ cau0424: 不可能你瞳孔聚焦的地方突然進化成16K螢幕吧 02/29 21:31
→ cau0424: 等哪天真的有了16K螢幕,就必然有電腦推得動完全不用擔心 02/29 21:32
推 ptag720: 也是啦,不過以目前的技術用瞳孔追蹤來偷效能應該還是可 02/29 23:59
→ ptag720: 行,讓電腦的要求下降 02/29 23:59
→ kuma660224: 瞳孔追蹤只能省PC效能, VR解析度還是要高 03/01 19:57
→ Justisaac: 目前最高好像是8k? 03/02 21:36
推 FerrariSpA: 推專業 不過這樣至少再等六年... 03/22 08:41