看板 car 關於我們 聯絡資訊
從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 三維的部分是經過一些設計、運算後得到的 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) 以目前的技術: 距離方面,光達的精度比較高 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊 以自動駕駛而言,兩者的精度都超過人眼了 所以關鍵還是在 AI 等其他方面 ※ 引述《airforce1101 (我不宅)》之銘言: : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 : 標,可以帶回更高精度的資訊。 : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著 : 的這篇文章 Extended object tracking: Introduction, overview, and application. : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達 : 先天上的差距還是存在。 : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1617893696.A.E85.html
chandler0227: 感測能力比人眼好沒問題,但感知就..... 04/08 22:56
airforce1101: 我想你想說的是識別吧 04/08 22:58
airforce1101: 偵測好不代表識別好 04/08 22:58
airforce1101: 識別識別靠的就是後級計算能力 04/08 23:00
airforce1101: 個人認為難在快速的識別 04/08 23:00
chandler0227: 英文sensing(感測)和perception(感知) 04/08 23:01
magesf : 攝像頭?那是三小? 04/08 23:01
rehdscoo : 鏡頭能到這樣也很屌 04/08 23:02
airforce1101: 二維得到三維這說法有點怪 04/08 23:04
rehdscoo : 特黑不用謝 04/08 23:05
rehdscoo : https://youtu.be/tEO2X7i9MEw 04/08 23:05
airforce1101: 三維包含二維資訊,二維包含三維資訊嗎? 04/08 23:06
ykjiang : airforce1101跟人眼立體視覺類似原理,利用視差估算 04/08 23:06
Tass : 攝像頭 04/08 23:08
airforce1101: 這樣還是算三維嗎?是因為時間讓都是二維的數據 04/08 23:08
airforce1101: 有了差值變化,沒有惡意,單純想求知,感謝。 04/08 23:09
ykjiang : 光達都能把原本的測距功能經過巧妙設計變三維了 04/08 23:10
ykjiang : 二維要變三維怎麼會有困難,看設計跟運算而已 04/08 23:10
zxcbrian : 講精度很像對岸影片硬是要提些什麼,然後根本廢話。 04/08 23:12
airforce1101: 理論上光達速度可以比影像快,在於回來的光向量變 04/08 23:12
airforce1101: 化,比影像變化的多 04/08 23:13
zxcbrian : 你鏡頭解析度超過人眼?還是算距離比較厲害? 04/08 23:14
airforce1101: 這個向量的變化就是物理上的資訊了。 04/08 23:14
zxcbrian : 人類那麼不堪的話就別開車了吧,哈哈 04/08 23:14
x86t : 要像人一樣的感測 你不如擺個人上去還比較便宜(x 04/08 23:14
zxcbrian : 靠精度就能開車,那就更別提了 04/08 23:14
airforce1101: 延展性目標講的就是這向量的變化 04/08 23:14
ykjiang : 特斯拉向前的鏡頭有三個,斜前方兩個,平行輸入 04/08 23:15
ykjiang : 原理上應該比多數(便宜)的光達快 04/08 23:16
lain2002 : 用不同原理的偵測系統是為了Double check避免誤判 04/08 23:34
lain2002 : 否則十幾年前的車就有雷達測距但只警示不直接介入 04/08 23:34
ssss127 : 而AI需要大量數據資料學習,特斯拉就是目前絕對領 04/08 23:42
ssss127 : 先者 04/08 23:42
ykjiang : 人眼的解析度其實不高,但人眼會跳動,眼珠會轉... 04/08 23:43
ykjiang : 人眼就中央清楚,周邊模糊,所以要靠其他方式補足 04/08 23:44
ssss127 : 這篇正解 完全說出特斯拉目前的使用方法 讚 04/08 23:46
ykjiang : 其他方面來說,特斯拉專注在深度學習等AI 部分 04/08 23:53
ykjiang : 其他牌比較偏向拿高精地圖補足,AI就沒那麼用力發展 04/08 23:54
StarburyX : 人厲害的不是眼睛 是頭腦 (三寶除外) 04/08 23:55
ykjiang : 什麼都用當然最強,但時間技術等成本差異不同, 04/08 23:56
ykjiang : 就有不同取捨 04/08 23:56
※ 編輯: ykjiang (59.105.112.74 臺灣), 04/09/2021 00:03:11
ykjiang : 有人不喜歡「攝像頭」,我改成「鏡頭」了 04/09 00:03
ykjiang : 雖然我個人覺得「攝像頭」這個用詞比較傳神 04/09 00:04
ISNAKEI : 今天統聯去撞機車地下道 我很好奇 自動駕駛可以避免 04/09 00:13
ISNAKEI : 這種開錯車道高度差嗎 如果要做到應該從哪下手 04/09 00:14
maniaque : 高精度地圖 04/09 00:16
x86t : 車頭頂部裝個可以觸發aeb的玩意就可以了吧 04/09 00:17
ykjiang : 日本那個監控司機的設計可以拿來用,既使沒自駕 04/09 00:21
ykjiang : 確保司機有看路,再加上疲勞偵測等等的 04/09 00:21