推 kira925: 推 01/26 16:41
推 GenialPP: 推 01/26 18:14
推 SiaSi: 專業 01/26 18:28
推 h1981127: 推!專業分析!不過需要3個USB的原因是他使用了三隻相機 01/26 18:50
→ kira925: 因為Oculus的設計兩隻攝影機還不夠Room Scale... 01/26 19:33
推 Kamikiri: 這樣買下來 應該已經比VIVE還貴了吧? 一個鏡頭89鎂 01/26 21:54
推 kira925: 三顆鏡頭 一組手把 本體... 01/26 23:19
好像是這樣沒錯,amazon上現在Oculus+touch價格剛好和vive差不多
再加上個第三攝影機...看來是比較貴
推 ashinet: 寫得很好 01/27 00:16
謝謝各位支持,但我的想法不一定對,大家一起交流
→ hsinggg: 我非常不願意這樣說...轉頭買V吧... 01/27 02:31
這樣好像又要被說是vive板了 XD
我個人是覺得,如果現在要新入手,沒理由選Oculus(除了真愛...)
如果已經投資了Oculus,不玩room-scale,也不用管這些問題
如果已經投資了Oculus又想玩room-scale,其實也不用特地換陣營
因為網路上也是不少人說他們Oculus的room-scale非常好
雖然我沒有交叉比較過,不排除是沒比較過vive不知道vive的準確性如何
但我想至少會是還ok的情形吧
只是看起來Oculus設定反而會比vive麻煩就是了,參考這篇新文章:
Oculus room-scale VR tracking is still a bit of a mess
https://goo.gl/adZWQe
Oculus camera FOV比較小,比vive的燈塔還需要用心擺設
且需要的CPU資源一定比vive多,因為定位系統需要即時做高計算量的影像處理運算
而尷尬的是此時因為GPU要讓給遊戲使用,所以應該無法使用CUDA等技術來丟給顯卡
做平行運算,結果都在吃CPU資源 (或許因此才限定最低CPU?)
所以同樣效果下需要的硬體反而比vive還高
其實每次看有人說VR板是vive板就覺得...
阿明明就是其他家不爭氣,所以才大部分都討論vive推薦vive阿...
推 Tunie: 是啊 02/01 18:14
→ ashinet: O家不爭氣, PSVR雖然用的很幹,但最近有沙灘排球讓我開心 02/02 11:34
→ kuma660224: 鏡頭好處是未來容易降價。cam成本隨製程降 02/05 11:18
推 kira925: 基礎演算法就有落差了 降價沒意義阿.... 02/05 17:01
推 h1981127: 如果能把影像演算法寫成硬體,用晶片去運算,就不用耗 02/06 01:38
→ h1981127: 到CPU的資源了,這樣一來就算換成4K影像也不要緊,再來 02/06 01:38
→ h1981127: 就是晶片放在燈塔上,燈塔只要回傳運算完之後的座標資 02/06 01:38
→ h1981127: 料,這樣也就解決了頻寬不足的問題,最後也最重要的就只 02/06 01:38
→ h1981127: 剩下晶片的成本會多貴了 02/06 01:38
確實這似乎不失為一個選項,但當對手燈塔成本越來越低時(有在研發一個馬達版本)
我是覺得不太可能這樣進行,尤其現在的價格就已經是一般人不會接受的高了,
要做這樣的SoC,成本應該不低喔
推 kira925: 這樣損失了燈塔系統有可能做ad-hoc多燈塔擴充的可能性 02/06 09:11
推 h1981127: 不衝突啊,燈塔回傳的只是燈塔和頭盔的相對座標,多燈 02/06 13:54
→ h1981127: 塔運算再由cpu去反推燈塔之間的相對位置,最後由軟體去 02/06 13:54
→ h1981127: 重新制定一個座標軸 02/06 13:54
推 kira925: 沒有燈塔的絕對座標的話 會做不出來... 02/06 14:42
推 h1981127: 由燈塔A推得頭盔的相對位置a,由燈塔B推得頭盔的相對位 02/06 16:23
→ h1981127: 置b,已知a=b,反推A和B的位置,有什麼難的嗎? 02/06 16:23
推 kira925: 那你需要的就不只兩個燈塔了 是三個阿... 02/06 16:51
推 h1981127: 完全不懂樓上的問題點在哪? 可以詳述一下嗎? 02/06 16:58
推 kira925: 我被GPS定位法搞混了 我再想想 主要是單純a=b這件事情 02/06 17:49
→ kira925: 你只能得到一個平面上等距 所以得不到A/B的位置 02/06 17:50
→ kira925: SteamVR在確定遊玩範圍的時候應該就是要從主機上做定位 02/06 17:51
→ kira925: A/B燈塔出來的距離多遠到多遠是最大範圍邊界 如果你 02/06 17:51
→ kira925: 把這些計算扔進燈塔 那就是要有傳輸路徑持續即時連線 02/06 17:52
→ kira925: 到CPU更新讓CPU去合成 那我覺得沒有頭盔上面收訊計算漂亮 02/06 17:52
一開始O家一個攝影機就可以定位三軸
我想或許是利用各個定位點之間的距離來推估深度資訊
(PS Move則是利用光球的大小來推估深度)
所以沒有類似GPS定位需要三個的問題
推 h1981127: 我們講的可能是不同的系統,我是討論Oculus的系統,目前 02/06 18:32
→ h1981127: O家的系統問題是要先把影像傳回電腦,靠CPU去運算燈塔和 02/06 18:32
→ h1981127: 頭盔的相對位置,由於O家是使用USB傳輸,所以會消耗大量 02/06 18:32
→ h1981127: 的頻寬在影像傳輸上,這也是影像解析度無法提升的一個因 02/06 18:32
→ h1981127: 素,我一開始說的重點就是讓影像處理這一塊改用硬體運 02/06 18:32
→ h1981127: 算,降低CPU以及頻寬的負擔 02/06 18:32
如果O家做room-scale只是把每個攝影機獨立算出來的定位資訊做補足(避免死角),
那麼就不需要攝影機間的溝通
但如果在早期作影像處理時就有一些演算法改用各攝影機的畫面同時判斷,
那麼定位要改成硬體也需要讓各攝影機之間相互溝通
當然也不是做不到,都是成本問題,我是覺得O家不太可能這樣處理,CP不高,
需要的成本不低,得到的好處(可定位距離變大之類)卻沒有非常顯著
推 kira925: 如果是Oculus的系統的話....就我之前看到的Hack是 他是 02/06 20:49
→ kira925: 實際上真的用攝影機拍 然後跑特殊的驅動卡在中間丟進CPU 02/06 20:49
→ kira925: 轉換輸出 但Constellation系統是需要跑多個frame的相差 02/06 20:51
→ kira925: 處理掉影像轉換 也還有很大的負擔 而且還是會卡到攝影機 02/06 20:52
→ kira925: FPS 所以能夠完善多少...我懷疑 02/06 20:53
推 intela60474: 推這篇 也推vive 02/07 15:06
※ 編輯: zebb (220.132.208.60), 02/09/2017 17:54:58
→ kuma660224: 演算法固定後用攝影機內特製asic去分析 02/10 22:25
→ kuma660224: 應該就可以不用大頻寬傳輸,不依賴CPU 02/10 22:25
→ kuma660224: 不受限解析度,應該最可行。 02/10 22:26
→ kuma660224: 用usb傳影像回cpu算是初期省硬體的錢 02/10 22:30
→ kuma660224: 但應該只是第一代過渡性質做法。 02/10 22:30