看板 car 關於我們 聯絡資訊
※ 引述《ewings (火星人當研究生)》之銘言: : ※ 引述《ykjiang (York)》之銘言: : : 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 : : 三維的部分是經過一些設計、運算後得到的 : : 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, : 這邊看完,我的感想只有“供三小?” : 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 : 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, : 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), : 照你的說法,鏡頭不也一樣是一維的? 雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。 : : 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) : 這邊也不知道在供三小 : 在半個世紀前,雷達後處理技術就已經發展出利用比對前後時間目標的變化,預測目標未來位置, : 並且持續追蹤的技術。甚至還有類似合成孔徑雷達(SAR)那種利用時間與位移積分, : 利用二維掃描形成3維雷達影像的技術。 : 而利用都卜勒濾波技術,甚至不需要比對前後時間的資料,就能直接得到目標的速度, : 在半個世紀前,雷達就能直接利用都卜勒測速,外插推估目標的未來位置。 : 但也沒人講雷達是四維資料的探測器。 你可以搜尋一下,有人就說這個是 4D 雷達 : 而特斯拉的前鏡頭並沒有構成立體視覺,就算加上時間預測,也只能構成2.5D, 去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已經有立體視覺 預計四月(如果沒延期的話)推出的 FSD Beta 9 會是 Musk 說的 4D 視覺 : (三個定焦鏡只能利用影像模糊的程度大致判斷距離),這也是特斯拉自動駕駛在視覺深度一直為人所詬病的地方。 : : 以目前的技術: : : 距離方面,光達的精度比較高 : : 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊 : : 以自動駕駛而言,兩者的精度都超過人眼了 : : 所以關鍵還是在 AI 等其他方面 : 無腦特粉才會覺得只靠鏡頭和AI就行 : 真的在搞自動駕駛的,在研究的是怎麼做多感測器的融合。 : https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg
: 像是直接將光達和攝影機做成同一個感測器,就是其中一個方向。 就算如後面推文你說的,特斯拉前向三個鏡頭是不同測交距離的鏡頭,搞不出立體視覺 但你忽略了特斯拉側前方還有兩個前向鏡頭,是完全對稱的測焦距離是一樣的80M以內 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1617911317.A.D70.html ※ 編輯: ykjiang (59.105.112.74 臺灣), 04/09/2021 03:57:05
ykjiang : 已回到原PO推文,Tesla主要靠前向三個鏡頭估算距離 04/09 05:08
ykjiang : 原理上任兩個鏡頭拍同一物體呈現不同位置或大小即可 04/09 05:12
ykjiang : 即可估算出距離 04/09 05:13
bluemkevin : vADAS 有些潛在開發廠商,但是傳統車廠不太敢全壓vA 04/09 09:23
bluemkevin : DAS 04/09 09:23
spinnerl : 隨AI進步多鏡頭可以做更多事情 但也別忽略latency 04/09 16:33
spinnerl : 3D sensing可以直接得到深度raw data是其優勢 04/09 16:34
ykjiang : latency應該都有吧,以目前的原理, 04/09 17:42
ykjiang : 就看這latency是發生在sensor段,還是CPU/GPU段 04/09 17:43
bluemkevin : 不只CPU,GPU,前置ISP也有latency 04/10 10:12