看板 car 關於我們 聯絡資訊
<<不比誰強誰弱,只講原理>> <<歡迎理性討論,勿戰廠牌>> 用一個簡單的方式來解釋目前實現自動駕駛兩大方案 ======================================= 狀況題: 小明家前面有一個蔡英文總統的人形立牌, 現在有兩個人,一個是念能力高手的瞎子,一個是智商只有20的阿呆, 請問他們如何辨識出這個立牌就是蔡英文? 瞎子是念能力高手擁有100公尺的圓, 他發動圓以後,可以輕易知道這邊有一個立牌, 但是因為他看不到,不知道立牌上面究竟是誰, 所以他自費請一個助手做小抄, 直接告訴他,只要在小明家前面的立牌,就是蔡英文 阿呆因為智力不好,雖然眼睛看的到立牌上面的圖案, 但是他分辨不出到底他看到的是蔡英文還是由達大師, 阿呆只好請了一個家教,準備了幾百張蔡英文的照片, 日夜看,晚也看, 最後經過幾個月,他終於知道那個立牌就是蔡英文了,可喜可賀 ======================================= 瞎子=Waymo=光達+高精度地圖 阿呆=Tesla=純視覺影像 ======================================= 光達就像圓,對周遭環境立體感應非常厲害,但是卻無法認得平面上圖案, 這裡的圖案指的 是路面的寬度標線,各種號誌標示 所以光達必須要搭配小抄(高精度地圖), 例如假設地上的標線從 禁行機車-->禁行汽車 高精度地圖必須跟上修改,否則車子無法分辨地上的字 優點: 1.安全性高,因為光達對周遭的掌握度高 2.如果只是在固定區域內,只要地圖維護得宜,達成LV5自動駕駛的可能性較高 缺點: 1.高精度地圖需不斷地更新,成本高昂 2.沒有地圖就無法自動駕駛 3.高精度地圖有軍事價值,如果讓其他國家拿到有資安風險 純視覺方案就像是人類的眼睛 (當然人腦比電腦厲害多了), 透過鏡頭獲得的圖片,加上其連續的變化及數學公式,分辨周遭的環境, 利用深度學習及不斷的訓練,讓電腦AI變得更聰明, 就像是圍棋打敗李世石Alphago一樣 優點: 1.通用解,一旦成功就全世界通用 2.只需要攝像頭,就可以達成自動駕駛,造車成本低廉 3.自動駕駛的表現會非常像人類 缺點: 1.阿呆真的能夠從智商20變成120嗎? 未知 2.AI訓練途中,危險性高,分辨不出橫躺的白色卡車就是例子 ======================================== Q:為何不用光達搭配視覺辨識?更完美? A:人類開車不也是只用眼睛嗎? 只要AI訓練到最後,基本上連雷達都不需要,只需要攝像頭就好  當然最後能不能成功就不一定了 Q:特斯拉為何不用光達? A:自駕的通用解勢必無法使用高精度地圖, 這樣使用光達的意義就不高了 Q:為何只有特斯拉採用視覺處理方案? A:AI訓練的關鍵就是數據,這是特斯拉最重要最有價值的東西,  每一輛在路上跑的特斯拉車子,在AP或是FSD控制的期間,  如果出現人工干預,車子的數據(攝像頭圖片)就會回傳給伺服器,  工程師再拿這些數據訓練自動駕駛的AI, 這裡的要求就是車子必須時時刻刻聯網, 目前只有特斯拉的車辦的到 Q:其他市售車廠有希望做到LV5自動駕駛嗎? 例如:福特 本田 通用... A:可以,採用光達+高精度地圖方案 但因為地圖維護成本高 只有局部範圍,例如高速公路上,或是特定城市,可以達成自動駕駛 純視覺方案因為數據來源比特斯拉少很多,AI成長速度勢必追不上特斯拉,  因為深度學習的演算法並不是秘密,關鍵是數據 Q:特斯拉的車子會越開越聰明嗎? A:AI訓練是靠超級電腦,並不是靠車上那顆晶片,  每一輛特斯拉的車子只負責收集數據,  而訓練好的AI軟體,再靠OTA更新到車上 ===================================================== 如果有其他問題,我可以就我了解的補充, 希望可以拋磚引玉讓更多人來討論自動駕駛的未來, 基本上只要在局部區域實現自動駕駛的話, 我認為Waymo的方式更安全也更容易, 馬斯克的野心很大,但是能不能成功很難講 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.15.82 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1616773315.A.34F.html ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/26/2021 23:49:25
iPadProPlus : 視覺 大數據 5G AI唯一解 03/26 23:54
同意
focusd : 時常連網連asus都做的到,其他車廠一定追很快。 03/27 00:07
focusd : 美軍的砲兵車還不是一出門就連網,不然用望遠鏡? 03/27 00:09
shark157 : 追很快你確定?特斯拉都出來幾年了,連網這個部分 03/27 00:11
shark157 : 哪間車廠追上了?更何況特斯拉在被追上的過程累積 03/27 00:11
shark157 : 多少數據了,重點是數據又不是連網能力 03/27 00:11
EBVirus : 我只知道用來比喻阿呆的AI阿法狗就是google開發的 03/27 00:16
EBVirus : 然後瞎子的waymo光達 也是google的....自駕誰比較猛 03/27 00:17
EBVirus : 應該不用說了 03/27 00:17
這裡的數據是指人為干預電腦時間點資料 究竟為何人要這樣開? 再用這組數據訓練AI 目前的狀況是: 有能力訓練AI的公司沒有造車能力,例如Google,Mobileye 有能力造車蒐集數據卻沒有分析能力,例如傳統車廠 特斯拉是少數具備兩項能力的公司 要蒐集數據勢必車上要有多顆鏡頭(Tesla是八顆) 傳統車廠還沒有這樣的車
magesf : 攝像頭是三小? 03/27 00:18
DSAndres : Mobileye現在是鏡頭以後加Lidar。個人認為要追求高 03/27 00:24
DSAndres : 準確度需要有影像+立體建模。結合兩種參數去判斷才 03/27 00:24
DSAndres : 真正安全。當然成本會是能否商業化的關鍵,Tesla在 03/27 00:24
DSAndres : 這方面極具優勢。 03/27 00:24
同意,在AI成熟前搭配光達是比較安全,偏偏光達目前還太貴
EBVirus : 目前的AI技術對於一些死規則的東西很有用 例如圍棋 03/27 00:26
EBVirus : 星海的話 也是靠完美操作贏玩家的...現在醫療AI龍頭 03/27 00:27
EBVirus : IBM都快玩不下去了...醫療這種病人數據參數很單純的 03/27 00:28
EBVirus : AI都有困難了 03/27 00:28
EBVirus : Level5 應該還很遠吧... 03/27 00:29
有夢最美 希望相隨 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:41:46
focusd : Mercedes me connect與蔚來都有了,有人在用石器 03/27 00:36
focusd : 公車也有八顆鏡頭呦 03/27 00:44
賓士現在也有配備多鏡頭(環繞車身)的車款了嗎?驚! 多鏡頭+時時聯網是蒐集數據的關鍵 中國的造車新勢力真不可小覷 個人認為傳統車廠最後還是會選擇光達方案比較實惠 現在視覺辨識要追上Tesla太難了 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:48:30
focusd : http://i.imgur.com/M1rhDaw.jpg 03/27 00:52
這邊指的是原生整合自車身電腦的鏡頭啦QQ          像指前擋風玻璃上ADAS用的鏡頭 不是這種純粹當行車紀錄器的鏡頭 ※ 編輯: StarburyX (111.249.15.82 臺灣), 03/27/2021 00:54:34
focusd : 不過我認同特斯拉的數據累積,其他硬體都可以追 03/27 01:15
yaritai : 互聯網建立車子間的溝通渠道搭配攝像頭判讀視頻呢 03/27 01:33
lay10521 : garbage in garbage out 03/27 02:33
sky2001 : civil maps不是宣稱可以做到低成本且數據量極小的 03/27 03:09
sky2001 : 高精度地圖(絕對精度公分等級) 而且只用Arm cortex 03/27 03:10
leaveleft : 就成立網路代駕公司啊!車子至少要L2以上,然後聯 03/27 04:01
leaveleft : 網,有人在遠端幫你操控到目的地... 03/27 04:01
kuloda : 現在發展自駕車的很多是光達雷達+攝影機 03/27 06:26
攝影鏡頭一定需要,只靠光達無法辨識紅綠燈          
yytseng : 兩者都會輾過睡在路中的狗,然後去下跪 03/27 06:38
yytseng : 可見光鏡頭限制太多,尤其是高對比狀況,瞬間變瞎子 03/27 06:42
focusd : 沒事,現在都休旅車。把底盤做高一點,讓狗死不了 03/27 06:49
lovedog0731 : 馬斯克開大絕:辨識waymo的車並跟在其後。不用閃過危 03/27 08:07
lovedog0731 : 險,只要閃過撞毀的waymo就夠 03/27 08:07
asdhse : 視覺辨識加光達才是最佳解 03/27 08:33
這邊提一下特斯拉跟其他車廠(福特 賓士..等)的ADAS系統有一個決定性的差異 靠視覺辨識為主的話特斯拉可以偵測不會移動的車輛 市售車廠是靠雷達偵測前方,會直接忽略靜止停等的車輛 要上到光達且具有足夠的算力才能處理靜止車輛 ※ 編輯: StarburyX (111.249.120.185 臺灣), 03/27/2021 09:16:45
MacD89 : 所以在馬路上睡覺的橫躺白色貨車就是不講武德... 03/27 09:56
neverfly : 結果還是撞上靜止貨櫃了 03/27 11:04
DSAndres : 視覺辨識如果是AI學習後只讓單機對實時影像做局部 03/27 11:15
DSAndres : 特徵值判斷,難保不會有誤判情形。人類判斷是透過 03/27 11:15
DSAndres : 幾十年生活經驗建立物體的立體構造認識,像是立體 03/27 11:15
DSAndres : 圖庫,移動的裝置要做到這樣,應該不能只學習路面 03/27 11:15
DSAndres : 的圖像。 03/27 11:15
hg32658 : 請一個專業司機 03/27 12:12
XXPLUS : 看到蔡英文或尤達大師不是都應該做一樣的反應嗎? 03/27 12:15
YJM1106 : 說靜止物人類其實也一樣,在晚上的高速公路上 你不 03/27 13:09
YJM1106 : 會因為隱約看到什麼東西就踩死煞車 會到真的看見物 03/27 13:09
YJM1106 : 體輪廓才有反應 03/27 13:09
KBchen : 補充一下:特斯拉不用光達也因為體積大跟成本高 03/27 13:11
kazami : 我覺得LV5最大的問題在於自駕開啟的時候車禍賠償 03/27 13:26
kazami : 責任歸屬,如果歸屬於車廠,那跳脫率或車禍率要夠 03/27 13:26
kazami : 低,低到車廠認為能夠負擔這成本,(即便是有保險 03/27 13:26
kazami : 也可能導致保費大增而影響消費者購買意願), 而以 03/27 13:26
kazami : 特斯拉現在只靠鏡頭攝影做AI視覺辨識,技術上是不 03/27 13:26
kazami : 太可能讓跳脫率或車禍率低到他們認為能夠承擔LV5 03/27 13:26
kazami : 可能增加的成本,而這也不是說你數據一直增加就可 03/27 13:27
kazami : 能讓跳脫率無限的逼近0,可能等車子互相會溝通後 03/27 13:27
kazami : 還比較有機會 03/27 13:27
kazami : 在醫學診斷上也有類似的問題,今天誤診責任還是在 03/27 13:35
kazami : 醫院,沒有廠商敢阿沙力說他的AI誤診他負責,這樣 03/27 13:35
kazami : 子就注定AI只能用來輔助而已。 03/27 13:35
birdskingla : 目標價多少辣 講出乃 03/27 13:39
darkdogoblin: 應該買車時就會有但書,輔助駕駛風險自負 03/27 15:18
s70160 : 目前使用Openpilot 採用雷達+vision 做縱向處理... 03/27 21:08
s70160 : 前方有靜止車輛確實可以100%停止! 03/27 21:08
heacoun : 攝影鏡頭,什麼攝像頭。 03/27 21:22
francej : 事實上人也分很多等級 從 三寶 到 F1職業車手 03/27 22:00
francej : 三寶開車 看到白色橫躺貨車 搞不好也是直直撞上去 03/27 22:01
wellkom : 三寶開,就算是正常行駛的也是用力幹下去啦 03/27 22:06
chandler0227: 局部範圍就不叫Lv5好嘛.....定義看清楚 03/28 22:59
chandler0227: 單一系統感知有侷限 所以主流才搞Lidar+視覺+雷達啊 03/28 23:01
chandler0227: Tesla問題在視覺無法正確感知下沒有別套方案cover啊 03/28 23:03
chandler0227: 而且高精地圖中沒有移動人車,lidar也能夠正確感知 03/28 23:07
chandler0227: 判斷人車上,lidar是很明確知道有物體在那,vision 03/28 23:10
chandler0227: 是依每個成像再經訓練(深度學習)辨識出人車 03/28 23:12