推 PaulPierce34: 哪個陣營是暗是明不好說,技術不一樣 04/08 16:04
→ PaulPierce34: AI訓練也和光達量測距離不同,不同技術無法取代 04/08 16:08
→ PaulPierce34: 光達技術也分很多種,不是每種都會受惡劣天候影響 04/08 16:09
→ PaulPierce34: 這篇記者根本外行,只是為捧而捧 04/08 16:10
推 chencjj: VLDR 一直低接 就不信他會下市 04/08 16:19
推 LimYoHwan: 用光達就是低能 這麼簡單的道理都不懂 04/09 12:41
推 hanchueh: 光達不是低能 只是很貴 就豪車選配 04/09 18:35
→ hanchueh: 無法變成便宜大眾化標配的配備 04/09 18:35
→ PaulPierce34: 便宜光達已經很多家在搞 04/10 15:35
推 hanchueh: 是很多家在搞 可是怎麼都沒放在平價車上 04/10 23:42
推 chencjj: 只是現階段太貴 之後壓低價格的話呢? 04/12 00:45
→ chencjj: 捨棄是好聽 其實是閹割 04/12 00:47
推 hanchueh: 我只知道2019/2020就很多新聞說光達 04/12 13:36
→ hanchueh: 價格即將跌到100鎂內 會改變整個自駕市場 04/12 13:37
→ hanchueh: 然後現在已經2022Q2了 連個影子都沒有 04/12 13:37
推 PaulPierce34: 曲博有講圖像AI與光達的差別,還有容錯設計的觀念 04/15 03:03
→ PaulPierce34: 如果目標是Level 5自駕,技術上就需要搭配光達 04/15 03:05
→ PaulPierce34: 純視覺很難做到Level 5,以後還有萬物互聯網的應用 04/15 03:07
→ PaulPierce34: 來加強自駕 04/15 03:08
推 hanchueh: 他只是解釋東西比較厲害而已 對於預測 04/15 09:58
→ hanchueh: 未來科技基本上也是用猜的 04/15 09:58
推 PaulPierce34: 覺得我們講不同東西,配合光達是指要達到Level 5 04/15 21:05
→ PaulPierce34: 你說現在主流是純視覺,但這方案只能做到Level 2 04/15 21:06
推 milichang: 光達做到精緻建模地區的LV5,意思就是只能在少數地方 04/17 18:33
→ milichang: 使用。視覺就是大部分地區LV5,目前研發中,不是做不 04/17 18:33
→ milichang: 到LV5。 04/17 18:33
推 hanchueh: Level 5根本就還沒有人達成 為何會知道 04/18 03:50
→ hanchueh: 要光達才能達成?那就是瞎猜啊 04/18 03:50
→ hanchueh: 其實要做的Level 3很容易 特斯拉現在就 04/18 03:51
→ hanchueh: 辦得到 但是會非常雞肋 04/18 03:51
→ hanchueh: 特斯拉也不想做這麼雞肋的東西去限制 04/18 03:51
推 PaulPierce34: 精緻建模?你要說高精度地圖嗎?這沒有綁定光達才能 04/21 23:39
→ PaulPierce34: 使用,視覺也可以用高精度地圖 04/21 23:40
→ PaulPierce34: 另外在缺乏高精度地圖的郊區,光達一樣有更準的測距 04/21 23:41
→ PaulPierce34: 先不要講LV5,只看LV4也是配光達 04/21 23:43
→ PaulPierce34: AI視覺用的就是卷積算法,這種算法靠圖像與顏色計算 04/21 23:46
→ PaulPierce34: 所以Tesla才會有撞上翻倒白色貨車的事故 04/21 23:46
→ PaulPierce34: 卷積算法會遇到圖像或顏色不易分辨的時候 04/21 23:48
→ PaulPierce34: 這時候就需要光達來輔助判定 04/21 23:48
→ PaulPierce34: 純視覺要提高能力,除了累積的計算結果,也要持續提 04/21 23:52
→ PaulPierce34: 高攝影模組與AI晶片,搞不好最終成本會超過光達 04/21 23:53
→ PaulPierce34: 如果你去了解AI卷積算法在自動駕駛的應用,就知道為 04/21 23:56
→ PaulPierce34: 何要達到LV5,搭配光達才是比較可行與低成本的方案 04/21 23:57
→ PaulPierce34: 就算假設純視覺最終可達到LV5,但成本要增加多少? 04/21 23:59
→ PaulPierce34: 邊際效應遞減,純視覺也許增加數倍成本才達到LV4 04/22 00:02
→ PaulPierce34: 不如用低成本視覺與低成本光達搭配,就能達到LV5 04/22 00:03
→ PaulPierce34: 每種技術有不同特長與缺點,互相取長補短才能降低成 04/22 00:05
→ PaulPierce34: 本與提高效率,會比一種技術用到頂尖更容易且便宜 04/22 00:06
→ PaulPierce34: 說別人瞎猜,我說的這些你了解過嗎?誰才是瞎猜呢 04/22 00:08
推 hanchueh: 全自駕真正關鍵的是AI不是什麼視覺光達 04/22 18:21
→ hanchueh: 就像開車真正關鍵的是大腦不是視力 04/22 18:21
→ hanchueh: 難道裝了光達就不用AI?不可能嘛 04/22 18:22
→ hanchueh: 台灣根本沒有上所謂的全自駕測試版 04/22 18:23
→ hanchueh: 只有Autopilot跟Navigate on Autopilot 04/22 18:24
→ hanchueh: 所以並沒有用到最先進的特斯拉AI能力 04/22 18:24
推 PaulPierce34: 是呀,所以這些技術要分開來理性分析優缺點 04/23 01:24
→ PaulPierce34: 最後都需要AI運算,但光達與視覺功能就不同 04/23 01:24
→ PaulPierce34: 就算是人眼,也怕對向遠燈、昏暗、不良天氣 04/23 01:26
→ PaulPierce34: 從人眼就容易理解視覺方案有困難的地方 04/23 01:27
→ PaulPierce34: 機器就可以用光達來補強這些視覺方案的短處 04/23 01:27
推 hanchueh: 呃不良天氣光達也無法運作 一滴水就能 04/23 01:30
→ hanchueh: 廢了光達 04/23 01:30
→ PaulPierce34: 然後卷積也只負責影像後第一層運算,光達不需要卷積 04/23 01:30
→ PaulPierce34: 一滴水廢了光達,這個我沒聽過,有資料給我看看嗎 04/23 01:31
推 hanchueh: 屁 隨便找都一堆人在研究光達用卷積 04/23 01:35
→ hanchueh: LiDAR cannot see in fog, dust, rain or snow 04/23 01:38
→ hanchueh: 霧 沙 雨 雪 都能廢LiDAR 04/23 01:38
→ hanchueh: 如果光達不需要卷積 這些人在研究什麼 04/23 01:39
推 PaulPierce34: 這跟你說的一滴水不同吧,不同波長的影響也有差 04/23 01:53
→ PaulPierce34: 針對這些天氣,也可再搭配雷達,每種技術有不同特長 04/23 01:54
→ PaulPierce34: 光達受影響,視覺也一樣呀 04/23 01:55
→ PaulPierce34: 每種技術都不是萬能,何必要把視覺以外技術都當垃圾 04/23 01:56
→ PaulPierce34: 我也有查到光達用卷積取代點雲的研究,那我收回光達 04/23 02:04
→ PaulPierce34: 不用卷積的說法,這些新的研究都可能商業化 04/23 02:04
→ PaulPierce34: 但你踩光達的點也有點太誇大了,而且視覺受的影響沒 04/23 02:05
→ PaulPierce34: 有比較好吧 04/23 02:06
→ PaulPierce34: 補充一下,我說的雷達是FMCW毫米波雷達 04/23 02:12
→ PaulPierce34: 看到一些研究說可以適應雨霧 04/23 02:13
→ PaulPierce34: FMCW也有公司在研發用於自動駕駛 04/23 02:20
→ PaulPierce34: 用你的說法,如果這些是垃圾,這些人在研究什麼 04/23 02:20
推 chandler0227: 關鍵是滿足MTBF,感測演算決策缺一不可,只有AI? 04/23 08:10
→ chandler0227: 發展FMCW LIDAR跟4D Imaging Radar的難道都笨蛋? 04/23 08:11
推 hanchueh: 照你們光達擁護者說的 感測發展很快啊 04/23 11:01
→ hanchueh: 一下子就能一百鎂 一下子就能幾公分就能 04/23 11:01
→ hanchueh: 所以瓶頸是在決策如果做到比人開安全 04/23 11:01
→ hanchueh: 如何做到比人腦的決策還安全 04/23 11:02
→ PaulPierce34: 科學的部分跟你講了,你要怎麼想就你自己的事 04/24 02:01
→ PaulPierce34: 即使都用卷積,光達提供的資料還是測距數據 04/24 02:54
→ PaulPierce34: 視覺給的仍然是圖像數據,這點差異還是一樣 04/24 02:55
→ PaulPierce34: 這跟擁不擁護沒什麼關係,科學上的差異就是這樣 04/24 02:57
→ PaulPierce34: 你自己不願意去了解或接受科學,扯什麼別人擁護 04/24 02:58
推 hanchueh: 特斯拉會取消使用雷達 就是因為圖像辨識 04/24 11:40
→ hanchueh: 已經比雷達還準確了 留著雷達反而會出現 04/24 11:40
→ hanchueh: 兩者訊息矛盾的問題 04/24 11:40
→ hanchueh: 結果你說光達還要用雷達輔助?那矛盾 04/24 11:41
→ hanchueh: 到時候怎麼解決?還不是要靠AI 04/24 11:41
→ hanchueh: 所以自駕的瓶頸依然是AI 04/24 11:41
推 PaulPierce34: FMCW可以單獨使用,圖像跟測距功能不同,也沒有圖像 05/01 06:13
→ PaulPierce34: 比雷達準確的這種說法 05/01 06:13
→ PaulPierce34: 2個訊息是看運算端怎麼處理,矛盾不會是問題 05/01 06:15
→ PaulPierce34: 如果會矛盾是軟體Bug,也不是光達的錯 05/01 06:16
→ PaulPierce34: 在測距上是視覺追求接近光達,不會是視覺比較準 05/01 06:20
→ PaulPierce34: 光達只是比較貴,Tesla才不用 05/01 06:20
→ PaulPierce34: 反正沒規定要做到LV5才能賣,還是看消費者選擇 05/01 06:21
推 hanchueh: 還是那句話 2019光達廠就說能降到100鎂 05/06 13:53
→ hanchueh: 現在2022了 成本才100鎂的零件怎麼不是 05/06 13:53
→ hanchueh: 每台車都有呢? 05/06 13:54
→ PaulPierce34: Tesla的全自動駕駛還不是持續跳票 05/13 09:33
推 hanchueh: 測試版已經上了啊 北美超過10萬用戶 05/15 13:57