推 green04: Good 08/26 01:04
推 whitecoat51: 不知道現在有沒有基於光達或毫米波雷達的AI,之後發 08/26 01:25
→ whitecoat51: 展前景會不會比純視覺來得好 08/26 01:25
→ moom50302: 業內做ai自駕沒有不佩服特斯拉的,通常只有業外裝內行 08/26 02:03
推 aggressorX: 特斯拉H100多到蓋工廠來放了... 08/26 02:56
→ Crios: 是蠻厲害的 所以台灣可以用FSD了嗎? 08/26 03:01
推 milichang: 四樓在說啥,業內人士明明就嗤之以鼻 08/26 03:31
推 ilovedirk41: 純視覺? S跟X的鳳凰雷達是? 08/26 06:07
我記憶沒錯的話 S和X的鳳凰雷達是緊急備用的 就是當鏡頭有異常或損毀時 系統會緊急調用雷達來支援
→ DYE: Dojo勒? 08/26 06:34
Dojo一直有在參與計算 但特斯拉也有買NVDA的晶片來協助運算 下一代Dojo晶片應該年底或明年會投產吧 算力不知道會提升多少就是
推 RV: M大說得沒錯,我是覺得這心態.. 08/26 06:51
推 EPIRB406: 自駕剩特斯拉跟華為而已吧,很多都要放棄了,太不切實際 08/26 07:18
→ EPIRB406: 。 08/26 07:18
其他車廠有沒有放棄 我是不清楚 但自動駕駛應該八九不離十會影響未來車企的價值 那放棄的車廠只能等著選用第三方的來使用了 可能未來就會看到傳統車廠開始用特斯拉的車用軟體或是AI也說不定
對於像電影那樣 未來各種智能車子在路上跑的畫面 已經不是遙不可及 可能有生之年是能看到的。
→ longtimens: 一般消費者看的是結果欸 lv2使用體驗差不多的話 特優 08/26 07:54
→ longtimens: 勢在哪? 08/26 07:54
單純比較單純的跟車、定速這類輔助駕駛的話 確實差不多 畢竟封閉路段的模型並不會那麼複雜
推 z7890706: 成本變低也沒有比較便宜XD 08/26 08:14
推 black32044: 使用體驗有差不多? 08/26 08:19
→ longtimens: 台灣的話沒差很多吧 08/26 08:33
→ longtimens: 一樣是封閉道路才能用啊 08/26 08:34
FSD的話是能用在非封閉路段 當然也要通過政府監管機關的監督審核才能上路 聽說歐洲跟中國年底前也要開放FSD 台灣的話....看看2~3年內有沒有機會吧
推 jesuskobe: 我記得之前也是有人特斯拉跟其他車兩台,使用體驗跟這篇 08/26 09:29
→ jesuskobe: 一樣差不了多少,有人還覺得tesla在加速比較快反而不喜 08/26 09:30
推 mhmichelle: 感謝分享 08/26 10:45
推 eryaniso: 在台灣小贏而已,畢竟功能根本沒打開 08/26 10:54
噓 YummyLin2120: 重點感是敢敢說出事負責 不然永遠都是不是自動駕駛 08/26 11:14
→ YummyLin2120: 根本不配叫自動駕駛 08/26 11:14
→ DYE: 自燃都不肯負責,那自駕怎麼負責? 08/26 11:44
噓 ewings: 講影像方案感測器資料會不衝突不知道是在講三小,特斯拉自 08/26 12:08
→ ewings: 己的純視覺方案,長短焦兩個鏡頭的資料一樣要做數據融合, 08/26 12:08
→ ewings: 視覺資料融合並沒有比光達-視覺融合簡單 08/26 12:08
也要考慮AI是否容易學習 AI去判斷純視覺絕對比去判斷雷達+視覺要容易的多 特斯拉就是選擇純視覺 並試圖讓AI自己去學習到如火純精
→ longtimens: 講那麼多 台灣就沒什麼差啊 08/26 12:38
推 lll156k1529: 沒雷達是缺點捏 08/26 12:47
噓 ewings: 誰和你講對AI來說雷達+視覺會比兩個視覺的資料融合難?你 08/26 12:48
→ ewings: 自己想的?就算是更老的機械學習,面對有深度資訊的雷達+ 08/26 12:48
→ ewings: 影像的資料融合,難度也比沒有深度的純視覺長短焦雙鏡頭簡 08/26 12:48
→ ewings: 單。 08/26 12:48
雷達+視覺 也沒那麼簡單的,何況雷達也有分成雷射雷達跟毫米波雷達..而且在雷達波長的感應下,應該金屬以外的東西都是半透明的,這跟鏡頭的視覺感知是不一樣的,這時候AI要採信哪一個本身就是一個議題。特斯拉選擇的是把分析雷達的精力放到視覺處理上面,而不是兩邊都處理...因為他們認為鏡頭的每秒位元資料量比雷達高出好幾個數量級,隨著視覺處理能力的提高,要跟雷達整合起來只會越來越不容易。
噓 ewings: 誰和你講非金屬在毫米波雷達下是半透明的?你到底懂不懂汽 08/26 13:40
→ ewings: 車的感測元件啊?不懂就別出來瞎吹 08/26 13:40
→ ewings: 講雷達和視覺會讓電腦不知道處理哪個?你在講什麼笑話啊? 08/26 13:42
→ ewings: 你怎麼不講長短焦雙鏡頭出來的視覺訊號會讓電腦不知道要處 08/26 13:42
→ ewings: 理哪個? 08/26 13:42
→ ewings: 只要是多感測器,都需要做感測器間的校準與資訊融合,雙鏡 08/26 13:44
→ ewings: 頭一樣得要做,而且還比雷達+鏡頭間的校驗還麻煩,消耗的 08/26 13:44
→ ewings: 算力更多。 08/26 13:44
→ ewings: 不懂硬體就別出來瞎吹 08/26 13:45
搜嘎....長知識了,感謝指教,硬體部分確實沒了解那麼多,這樣的話就表示特斯拉確實是用超乎我想像的海量數據來彌補精準度上的誤差了,這算力真誇張
推 benlu: FSD在台灣為什麼不能用呢?因為他會把機車直接撞下去 08/26 13:50
噓 ewings: 誰和你講FSD有克服純視覺精度上的誤差了?特斯拉才剛又把4 08/26 14:05
→ ewings: D毫米波雷達裝回4代自駕平台而已。 08/26 14:05
啊? 我沒有說克服阿 我是指它是用海量視覺數據來彌補少了雷達 所帶來的誤差 我當然也知道他們在新的自駕平台重新裝了4D毫米波雷達 但他們仍然是以純視覺AI運算為主
噓 ewings: 特斯拉要用上AI,那表示純視覺方案的演算法更麻煩,和你自 08/26 14:34
→ ewings: 己幻想會更簡單的情況完全相反。 08/26 14:34
不見得更麻煩才對,即便是Waymo也是有用上AI才能實現全自動駕駛,它們共同點都是使用端到端的AI自駕技術,在程式架構上端到端是沒有module的概念,不需要工程師寫出海量的代碼,完全是靠AI透過感知器進來的訊息自己去認識和學習並生成代碼...
推 miel3330: 你幹嘛要跟一個明顯外行的人講ML 08/26 15:53
噓 ewings: 底層邏輯更複雜的東西,你覺得可以丟給AI所以不會更麻煩? 08/26 18:48
→ ewings: 那以後你活該成為被AI取代的碼農吧…..付你薪水還不如拿去 08/26 18:48
→ ewings: 買nvidia運算卡。 08/26 18:48
就是因為底層邏輯複雜才更需要端到端這種生成式AI阿... 路上狀況千變萬化,單純只靠人工撰寫底層代碼和邏輯是永遠沒辦法conver全部的 而且當代碼越來越多,整個要maintain是會越來越困難的,所以業界才會開始有端到端的AI自駕方案的出現,這不僅簡化了整體代碼的數量並降低了複雜度。像是特斯拉轉成端到端後,代碼也從原本30萬行減少到幾千行,剩下的就是靠AI自己去學習,只要學習的數據量夠大,自駕技術就會越來越成熟,從V12換到端到端後,整體的大幅度進步就是很明顯的成果了。
噓 ewings: 笑死,底層邏輯就像憲法一樣,沒有建立基本規則,AI也只是 08/26 21:56
→ ewings: 算出一堆垃圾。然後訓練不用成本?資料不用成本?人工校驗 08/26 21:56
→ ewings: 資料不用成本?你對AI的認知和那些相信飆股群組裡的那些人 08/26 21:56
→ ewings: 有啥兩樣? 08/26 21:56
→ ewings: 就拿高速公路緩衝車當例子,3D光達與雷達只要一個簡單的” 08/26 21:57
→ ewings: 感知前方有個靜止障礙即刻煞車”的簡單邏輯就拿運作,AI就 08/26 21:57
→ ewings: 必須有大量的訓練資料才做得到,而如果訓練資料缺乏緩衝車 08/26 21:57
→ ewings: 數據,偵測就有機會失效。這就是為什麼特斯拉吹了半天純視 08/26 21:57
→ ewings: 覺,到現在還是只敢標Level 2的原因。 08/26 21:57
所以特斯拉現在就是一直在拿大量視覺影像在訓練阿 當然肯定也是耗費了不少訓練成本 但現行看到的成長結果 基本上是能確認基礎的大數據模型和學習樣本是沒有問題的 何況現在世界各地有在用FSD的車子 都能是視覺影像的素材 至於傳統的底層邏輯代碼寫再多是絕對不可能涵蓋道路駕駛會遇到的所有狀況的 這是永遠寫不完 既然寫不完 那就是透過端到端模型讓AI自己花時間去學習,終有一天就能訓練達到像人類一樣的反應和判斷。這種端到端模型技術不是只有特斯拉採用,不少自駕研發公司也都有開始在進行了,不管是透過雷達還是鏡頭。
※ 編輯: Nico0214 (149.117.216.39 臺灣), 08/27/2024 01:18:14
→ mussina27: 從回文之間就可以發現其實很多不懂原PO解釋的內容是什 08/28 10:32
→ mussina27: 麼,只是硬要而已。 08/28 10:32
推 mussina27: 拿緩衝車當例子可說是衝出跑道傑出的一手,雷達如何檢 08/28 10:52
→ mussina27: 知前方有靜止障礙系統如何做出即刻煞車其實這十年來汽 08/28 10:52
→ mussina27: 車業界硬體方案的實作都差不多,所以才有他牌汽車不斷 08/28 10:52
→ mussina27: 撞緩衝車的新聞。這就是前面推文提到嗤之以鼻的業內人 08/28 10:52
→ mussina27: 士嗎? 08/28 10:52
推 shownlin: 推文e開頭的在亂講什麼-.- 08/30 17:02
→ shownlin: 訓練資料缺緩撞車也可以做Anomaly Detection 08/30 17:05
→ shownlin: 而且AI在視覺和語音領域就是一統江山 08/30 17:07
→ shownlin: 融合其他Sensor一定是比純視覺難啊… 08/30 17:08
→ shownlin: 是不是會議paper都不跟在高談闊論啊 08/30 17:08