看板 car 關於我們 聯絡資訊
來源: https://bit.ly/30866Fa 文章很長,建議有興趣的人看來源(中文,只有部分內容),若有條件的話最好 是看原文來源(英文):https://bit.ly/36XTzFG 不過原文有點長,當初我花了兩三天才分段看完,當初看完後原本想發,但因 為太長了只翻到一半遲遲沒發。現在看到原來有人寫成中文文章,就轉發過來, 不過這份中文文章也只是簡介並且只有前面約1/4 的內容。 這篇文章是從市售車(Tesla)與試驗車(Volvo、Waymo) 將其車上的感應器做分 類介紹並且就背後的原理、軟體方法等逐一做介紹,從內容中也可以看到各家 目前對無人駕駛的意見很不一致,例如Mobileye 與MIT 對於高精度數位地圖的 看法就很不一樣: “If we want to have autonomous cars everywhere, we have to have digital maps everywhere” Amnon Shashua, Chief Technology Officer at Mobileye, 2017 “The need for dense 3-D maps limits the places where self-driving cars can operate.” Daniela Rus, director of MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), 2018 而對於將無人駕駛技術放到燃油車上M-Benz 也說這沒有任何意義,因為會使油 耗大幅度增加: “To put such a system into a combustion-engined car doesn’t make any sense, because the fuel consumption will go up tremendously,” Wilko Stark, Vice President of Strategy, Mercedes-Benz, 2018 而對於該使用DSRC 還是C-V2X,意見也是非常的分歧。 而最知名的歧見大概就是光學雷達派與視覺辨識派,光學雷達派認為光學雷達 是必要的,若成本下降就連Tesla 也會開始裝光達。 而視覺辨識派像是Elon Musk,他認為問題在於視覺辨識,人類都能靠兩隻眼睛 開車了,而處理速度更快的攝影機也可以,而且就算用上光達,都是要解決視 覺辨識問題,一但解決了視覺辨識問題,那麼光達就顯得不必要而且昂貴,如 果你解決不了視覺辨識問題,那你就解決不了無人駕駛問題,有光達也沒用。 同樣的Nissan 也認為,光達目前缺乏超越雷達和攝影機的能力。 “Once you solve cameras for vision, autonomy is solved; if you don’t solve vision, it’s not solved … You can absolutely be superhuman with just cameras.” Elon Musk, 2017[19] “At the moment, lidar lacks the capabilities to exceed the capabilities of the latest technology in radar and cameras,” Tetsuya Iijima, General Manager of Advanced Technology Development for Automated Driving, Nissan, May 2019[20] “Let’s be candid, lidar is unaffordable in consumer vehicles, but if a lidar unit were available today that had good performance and was affordable, it would quietly show up in a Tesla car and this whole hubbub would go away.” Bill Colleran, CEO, Lumotive, June 2019[21] 像這樣廣泛的介紹無人駕駛技術各方之間的主張在文中相當的多,有興趣的人 真的可以好好找時間讀一讀原文。 https://i.imgur.com/uZnRhZf.jpg
2020 最新自動駕駛技術報告出爐!以特斯拉、Volvo 為例,全面涵蓋智駕技術 進入 2020 年,自動駕駛技術跨越式與漸進式路線的陣營劃分已十分明顯,但最終自動駕 駛要完全自動化,技術還需要不斷更新發展。 對自動駕駛的技術進展,WEVOLVER 發表的《2020 自動駕駛技術報告》(2020 Autonomous Vehicle Technology Report)做了全面闡釋。 報告從感測、規劃、執行三層面闡述自駕車技術的最新發展狀況,涉及感測器、資料處理 、機器學習、SLAM 與感測器融合、路徑規劃等多領域,同時提供多家自動駕駛公司的案 例,包括特斯拉、Volvo、Waymo 等。 感測 自駕車是在未知動態環境執行,所以需要事先構建環境地圖並自我定位,而執行同步定位 和對映過程(SLAM,即時定位和地圖構建)輸入則需要感測器和 AI 系統幫助。 報告指出,感測器可分為有源感測器和無源感測器,各種感測器都有優缺點,沒有單一感 測器適用所有路況。通常情況下,想可靠安全操控一輛自駕車,需要同時使用多種感測器 。 一般情況下,自駕車感測器主要有 5 種: 遠端雷達:訊號能透過雨、霧、灰塵等視線障礙物偵測目標。 照相機:一般以組合形式探測短程目標,多應用於遠距離特徵感測和交通偵測。 光學雷達:多用於 3D 環境對映和目標偵測。 短程/中程雷達:中短程目標偵測,適用側面和後方避險。 超音波:近距離目標偵測。 各類感測器均有優缺點,而自駕車需要從技術判斷選擇感測器,篩選條件主要有幾方面: 掃描範圍,決定感測器反應感測物體的時間。 解析度,感測器可為自駕車提供多少環境細節。 視野/角度解析度,決定自駕車需要多少感測器涵蓋感測區域。 3D 環境區分靜態和動態物體的能力。 更新率,決定感測器資訊更新的頻率。 不同環境條件下的總體可靠性和準確性。 成本、大小和軟體相容性。 生成資料量。 以下是特斯拉、Volvo-Uber、Waymo 的感測器方案示意圖: 另外,關於無源感測器和有源感測器,報告也詳盡介紹: 無源感測器 無源感測器能探測環境物體反射的現有能量,如光、輻射等。但在弱光環境下,由於自己 沒有傳遞源,無源感測器的效能將會下降。並在產生資料方面,比起有源感測器,無源感 測器產生的資料量更多,約 0.5~3.5Gbps。 即便如此,無源感測器仍有許多特點: 涵蓋整個視野寬度的高解析度畫素和色彩。 視野保持恆定幀頻。 兩個鏡頭可生成一個 3D 立體檢視。 缺乏發射源,減少其他車輛干擾的可能性。 技術成熟,成本低。 系統生成的影像便於用戶理解互動。 如果在自駕車使用無源鏡頭感測器套件,需要涵蓋汽車周圍環境。這可透過使用特定時間 間隔拍攝影像的旋轉相機做到,或用軟體將 4~6 台相機影像接在一起。 此外,這些感測器需要超過 100 分貝的高動態範圍(場景高光和陰影成像能力),能在 各種光照條件下工作,並區分不同物體。 有源感測器 有源感測器有訊號傳送源,依靠 TOF 原理感測環境,ToF 能透過等待訊號反射傳回測量 訊號從源頭到目標的傳遞時間,訊號頻率決定系統使用的能量及準確性。因此,確定正確 的波長在選擇系統時是關鍵。 關於有源感測器種類,報告主要介紹 3 種: 超音波感測器:也稱為聲納、聲音導航測距。在有源感測器中,音波頻率最低(波長最長 ),因此更容易被干擾,這也意味著超音波感測器很容易受不利環境條件影響,如下雨和 灰塵。另外,其他音波產生的干擾也會影響感測器效能,需要透過使用多感測器和依賴其 他種類感測器來緩解干擾。 雷達:主要以無線電波測距。無線電波以光速傳遞,電磁波譜中頻率最低(波長最長), 基於無線電波反射特徴,雷達感測器可探測到前方物體以外的東西。 不過,雷達訊號容易被具相當導電性的材料(如金屬物體)反射,並其他無線電波干擾也 會影響雷達效能,造成雷達感測器無法探測。確定探測目標的形狀這點,雷達的能力不如 光學雷達。 光學雷達:以脈衝光學形式使用光。光學雷達感測器以每秒 50,000~200,000 脈衝的速度 掃描一個區域,並將傳回訊號編譯成 3D 點雲圖,透過比對連續感測的點雲圖、物體差異 偵測運動,建立 250 公尺範圍的 3D 地圖。 規劃 根據自駕車感測器套件擷取的初始資料和已有地圖,自動駕駛系統需要同時定位和對映演 算法構建和更新具體環境地圖,追蹤具體定位,開始規劃從一點到另一點的路徑。 SLAM 與感測器融合 SLAM 是複雜的過程,因定位需要地圖,而繪製地圖需要良好的位置估算。為了更準確執 行即時定位和地圖構建,感測器融合開始發揮作用。 感測器融合是將多感測器和資料庫結合,以改進資訊的過程,是多層次任務,能處理資料 間的聯繫和相關性組合資料,與使用單資料源相比,能獲得更便宜、更高品質、相關性更 高的資訊。 自駕車 AI 架構主要有兩種方法: 逐步處理。把整個駕駛過程拆解為一系列逐層連線的流水線,其中每一步,如感測、定位 、地圖、路徑導航、運動控制,都分別由各自軟體套件處理。 端到端。基於深度學習的解決方案,一次性處理所有功能。 透過感測器融合,自駕車獲得資料,不過如何從感測器訊號擷取有用的資訊,並基於現有 資訊執行,需要利用機器學習演算法──CNN、RNN、DRL。 CNN(卷積神經網路):主要用於處理影像和空間資訊,擷取感興趣的特徵和辨識環境物 體。神經網路是由一個卷積層構成:一個過濾器集合,嘗試區分影像元素或輸入資料做好 標記。卷積層匯出輸入到演算法,演算法結合資訊預測影像的最佳說明。最後的軟體通常 稱為物體分類器,因可分類影像裡的物體,如交通號誌或另一輛車。 RNN(遞迴神經網路):主要用於處理影片資訊,先前步驟匯出將輸入網路,允許資訊和 知識在網路持久存在並內化。 DRL(深度強化學習):DRL 允許軟體定義的「代理」學習在虛擬環境使用獎勵函數,達 成目標最佳操作。這些針對目標的演算法將學習如何達成目標,或如何在多步驟下沿著特 定角度最大化。目前,深度強化學習在自駕車的應用還處在起步階段。 這些方法不一定獨立存在。為了避免過度擬合,深度學習通常會多工訓練網路。當機器學 習演算法訓練用於特定工作時,它會變得非常專注模仿訓練的數據,以至於嘗試插值或外 推時,結果會不太現實。 透過多工訓練機器學習演算法,網路核心將專注發現所有目的都有用的通用特徴,而不是 專注於一個工作,以便輸出更實際有用的應用程式。 利用感測器的所有資料和演算法,自駕車能探測周圍物體。接下來,它需要找到一條路。 路徑規劃 車輛了解環境物體及位置後,可使用 voronoi 圖(車輛與物體間的最大距離)、使用網 格演算法或駕駛廊道演算法,確定車輛的大範圍路徑。然而,這些傳統方法無法滿足車輛 於動態環境行動。 報告指出,部分自駕車不僅依靠機器學習演算法感測環境,還依靠這些資料來控制車子。 路徑規劃可透過模仿學習傳授給 CNN,CNN 會嘗試模仿駕駛的行為。 通常情況下,這些機器學習方法會與經典的運動規劃和軌跡最佳化方法結合,以確保路徑 的強健性。此外,出於其他目的(如減少燃料使用),車商還會在模型提供最佳路徑參考 。 車輛執行過程的神經網路訓練和推理需要巨大計算能力,由於汽車需及時回應新數據,因 此操作車輛所需部分處理需在車上進行,模型改進可在雲端完成。 目前,機器學習的最新進展在有效處理自駕車感測器產生的資料,減少計算成本。此外, 晶片製造和微型化進步也提高可安裝於自駕車的計算能力。隨著網路協定進步,自駕車或 許能靠低延遲基於網路的資料處理,幫助自己自主操作。 執行 那麼,車輛是如何行動的? 人類駕駛的車子,轉向、剎車或訊號等動作通常由駕駛控制。駕駛的機械訊號由電子控制 單元(ECU)轉換成驅動指令,再由電動或液壓執行器執行。 (半)自駕車中,這種功能直接被與 ECU 通訊的驅動控制軟體取代。這些軟體能改變車 輛架構,減少零件數量;尤其是專門用於為 ECU 將機械訊號從駕駛轉換為電訊號的零件 。 自駕車通常包含多個 ECU,一般約有 15~20 個,高階車款可能達 100 個。 ECU 是簡單的計算單元,有獨立微控制器和記憶體,處理收到的輸入資料,並轉換為子系 統匯出指令,如轉換自動變速箱。 一般來說,ECU 既可負責控制車輛操作,也能負責安全功能,執行資訊娛樂和應用程式。 並大多數 ECU 支援單應用程式,如電子動力轉向,能在區域執行演算法和處理感測器資 料。 挑戰一:系統複雜性 工程師需要為系統設計正確的電子架構,以便融合感測器,將決策同步配置到按指令行事 的較低層子系統,這對需求的增加和複雜性提出挑戰。 理論上,在一種極端情況下,人們可以選擇完全分散式架構,每個感測單元處理初始資料 並與網路其他節點通訊。光譜另一端有個集中架構,所有遠端控制單元(RCUs)都直接連 線到中央控制點,控制點收集所有資訊並執行感測器融合過程。 這範圍中間是混合解決方案,將在更高抽象等級工作的中央單元與執行專屬感測器處理, 或與執行決策演算法區域結合。這些區域可基於車輛內部位置,如車子前或後部區域,控 制的功能類別,或處理的感測器類別(如照相機)。 在集中式體系架構,不同感測器的測量值是獨立的,不受其他節點影響。資料在系統的邊 緣節點沒有修改或過濾,為感測器融合提供最大可能資訊,並具較低延遲。這架構的挑戰 在大量資料需要傳輸到中央單元並處理,這需要強大的中央電腦,而且還要高頻寬的重型 線束。 分散式架構可用更輕的電氣系統達成,但更複雜。儘管在這樣的架構,與頻寬和集中處理 相關的需求大大減少,但驅動和感測階段之間引入延遲,增加資料驗證的挑戰性。 挑戰二:動力、熱量、重量和體積增加 除了增加系統複雜性,自動化還會增加車輛零件的功耗、熱足跡、重量和大小。無論架構 是分散式還集中式,autonomous 系統的功耗需求都很巨大,這之中主要的驅動因素是競 爭需求。 全自駕車的競爭需求比目前生產最先進的汽車高出近 100 倍。對純電動車來說,行駛里 程容易受動力需求的負面影響。因此,Waymo 和福特等公司選擇專注混動車,Uber 則使 用全汽油 SUV。然而專家指出,全電動最終會成為動力系統的選擇,因內燃機在為車載電 腦發電方面效率不佳。 處理需求增加和更高功率吞吐量會使系統升溫,但為了使電子元件正常可靠工作,不管車 外部條件如何,電子元件必須保持於一定溫度範圍內,這就需要冷卻系統。但冷卻系統會 增加車重和體積大小,特別是液體冷卻。另外,其餘套件、布線和熱管理系統也會對車重 、體積和熱效能造成壓力。 自動驅動元件的供應商正改變產品,從減輕像 LIDARs 等大型元件重量,到構建 semiconductor 這類微型元件。同時,半導體公司也在製造占地面積更小、熱效能更好、 干擾更小的元件,發展各種矽元件,如 MOSFET、bipo – lar 電晶體、二極體和積體電 路。 不僅如此還考慮使用新材料氮化鎵(GaN)。與矽相比,氮化鎵可更有效傳導電子,在給 定的導通電阻和擊穿電壓下,製造出更小元件。 一輛全自駕車包含的程式碼可能比迄今開發的任何軟體平台或作業系統都多,要自行處理 所有演算法和過程,需要顯著的計算能力和強大的處理能力,目前 GPU 加速處理正成為 產業標準。 在 GPU 領域,Nvidia 是市場領導者。Nvidia 的競爭主要集中在張量處理單元(TPU)晶 片設計,加速深度學習演算法核心的張量運算。另外,GPU 用於圖形處理也阻止深度學習 演算法充分利用晶片的能力。 可見,隨著車輛自動化程度提高,車輛的軟體形態將發生顯著變化。除此之外,車子擁有 更多自主權,也會影響用戶與車輛的互動方式。 -- 宅男Elon Musk 18年年底與Tesla 員工聚會: https://i.imgur.com/M3p884k.png
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.224.217.107 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1591269819.A.67C.html
andy82116: 看這麼多樓主心動了嗎?何不買一台model3呢?反正折價 06/04 19:26
andy82116: 低售價也低開個一年試試看,還不會虧本呢? 06/04 19:26
cfk301: 不要逗弄他了!混口飯吃而已... 06/04 19:27
showingstar: good review 有些內容跟教主的說法不同 06/04 19:35
la1209: 開ap還不是去撞車 06/04 19:39
toeic900: 有安全氣囊技術報告嗎? 06/04 19:40
kazami: Musk那種說法就是無知的說法,人類可以只靠兩隻眼睛開車 06/04 19:42
kazami: ,後面可是有一顆複雜程度超過全世界計算力總合的神經網 06/04 19:42
kazami: 絡在運作。 06/04 19:42
請問你這說法是從哪來的?我很好奇 我並沒有聽過人腦複雜程度超越全世界計算力的類似說法 最多只知道我們對於人腦如何運作並不是完全了解 另外Elon Musk 是Open.AI 的創始人之一 同時也是研發植入式腦機介面技術的Neuralink 其創始人 我可以很肯定的說他對於AI 以及人腦的了解絕對不是你講的"無知" ※ 編輯: Scape (36.224.217.107 臺灣), 06/04/2020 19:50:05
flexin: 嘻嘻 06/04 19:46
gtoselina: 看不懂,我只知道他會直直撞 06/04 19:48
longdi427: 教主何時牽車啦,大家慇慇期盼~ 06/04 19:52
sazabik: 感謝分享 06/04 19:55
Baumgartner: 教主:你們越噓 我越要洗 06/04 20:04
Baumgartner: 今天已經洗8篇了 06/04 20:05
Baumgartner: 連震撼哥一天也才2 3篇而已 06/04 20:07
thuash: 人看到牆會直直撞下去?這東西看起來很聰明,但根本不成熟 06/04 20:07
KoWenJe: 原來教主還沒買車喔 好可惜喔 不能在等超充的時候跟車友 06/04 20:08
KoWenJe: 聊到底怎麼直直撞上貨車了 06/04 20:08
Baumgartner: 整天洗文 教主是不是學生啊 很閒的研究生之類的 06/04 20:11
Windcws9Z: 人腦能發明AI,AI能發明人腦嗎 06/04 20:12
aleckleehaha: 要幾篇? 06/04 20:17
colapola: 結果還是一頭撞上去~還敢自駕啊? 06/04 20:19
Rayearth2037: 不能質疑Musk 06/04 20:23
scelerisque: Google 仔還是算了吧 06/04 20:24
CMLeeptt: 洗完了沒? 06/04 20:27
mmppeegg: 你是正職特斯拉寫手吧 別跟我說你沒賺錢 06/04 20:27
mmppeegg: 可不可以不要什麼東西都PO上來 06/04 20:29
ru04hj4: 呵呵 物極必反 06/04 20:30
cipherpol9: 看起來沒啥 06/04 20:42
whizz: 煩不煩 tesla=others 誰要釣桶裡的臭酸魚 06/04 20:47
cospergod: 就還是個輔助系統,怎麼吹都沒用 06/04 20:49
Brian23: Voronoi感覺是要抓2個障礙物中間的路徑 06/04 20:52
CMLeeptt: https://i.imgur.com/onbI7JB.jpg 06/04 20:54
aki1023: 所以你買了沒? 06/04 21:20
GORDON2037: 沒人質疑musk,但是是質疑你po的東西,懂? 06/04 21:23
demo68: 撞車技術? 06/04 21:42
deeder1: 我越來越懷疑你是特黑裝特粉,故意寫文章、推文引戰來黑 06/04 21:54
deeder1: 特斯拉的 06/04 21:54
jason89514: 煩死了 自己都沒買一直吹 06/04 21:55
icemaydays: 推,特黑買不起只能酸了,嘴臉真醜陋 06/04 22:05
hondasho: 比較好奇為什麼最沒負擔的親自體驗,也能凹一堆理由? 06/04 22:06
squall410339: 回覆快笑死請繼續XD 06/04 22:08
cfk301: 天阿!這個噓文.....幫補血 06/04 22:10
applesck: 涼幣看起來真的很涼 06/04 22:15
techih: 人家S大錢大至少還查的出些論文報告,推文的根本就來胡鬧 06/04 22:28
buckdu: 謝謝分享 06/04 22:34
tkjycchj: 有夠煩 06/04 22:34
LexusNo1: 幫補血,噓的都是買不起特斯拉眼紅。 06/04 22:42
suitup: 幫補血,噓的都是買不起特斯拉眼紅。 06/04 22:50
suitup: 教主是黑還粉 真相越辯越明 台特應該恨不得教主被桶 06/04 22:52
SA01: 懶八萬前面噓文也不少...代表也買不起眼紅?XD 06/04 23:10
DSB520: 每天看到你發文 讓我想起張爸 06/04 23:24
SRJ: 教主邏輯 : 劣幣們講特斯拉看起來誤導全自駕不行; 我大吹特斯 06/04 23:38
SRJ: 拉看起來天上天下念動爆碎NO.1很可以 06/04 23:39
lewisk: 認真問 可以偵測側倒貨車嗎QQ 06/04 23:53
jason0330: 連我都開過M3https://i.imgur.com/qrjtZSB.jpg 06/05 01:01
jason0330: 您到底啥時要開開看啊? 06/05 01:01
jason0330: 不買沒關係,反正我也只是去試車而已,但要開開看吧 06/05 01:02
suitup: 不行吧 會以為大貨車是霧之類的 06/05 01:27
suitup: 說實話 電腦就該做適合電腦做的事 要電腦什麼都會 我只能 06/05 01:28
suitup: 說這幾條人命可能還不夠 06/05 01:28
JackChung: 推 06/05 04:57
as6633208: 推,其實用不用光達各有道理 06/05 06:58
kazami: 咦 涼壁回應我這個劣幣了耶 06/05 08:07
kazami: 請容我大聲哈哈哈哈哈哈哈哈再回應 06/05 08:08
kazami: 1.你沒聽過或是google不到沒代表沒人評估過,有些事情是你 06/05 08:09
kazami: 得呆在相關領域或是有興趣該領域才會有機會聽到人家評估給 06/05 08:10
kazami: 你看。 06/05 08:10
我上面只請教了你一個簡單的問題:人腦複雜程度超越全世界運算力加總的說法從何而來 結果你講來講去還是那樣:你不是這領域的人所以你不知道 不要說論文或報告了,連一個新聞報導你都提不出來 你講出一個這麼驚人的結論,卻連個實際的根據都沒有?
kazami: 2. 你可以進入相關領域花個幾年的時間去看看學術上對人類 06/05 08:12
kazami: 大腦運作以及結構的了解程度,雖然還有很多未知,但這十多 06/05 08:13
kazami: 年來的進步已經超過過去數十年的成果了 06/05 08:14
所以你丟了一個結論出來,別人問你從何而來的 你回答不出來,只能叫人從頭自己去學這樣嗎? 這就是你的根據,要人自己去學?講半天你根本沒有回答問題
kazami: 3.講之前再讓我哈哈哈哈哈哈哈一下 06/05 08:14
kazami: 如果你只是要秀musk的經歷的話就算了,這些經歷可以代表他 06/05 08:15
kazami: 多了解大腦,騙人不懂腦機跟AI唷。連長期進行大腦神經研究 06/05 08:16
kazami: 的大師都會感嘆大腦越研究越搞不懂是怎麼做成的,這種打擦 06/05 08:17
kazami: 邊球的經歷是能多深入了解大腦結構? 06/05 08:18
上面你直接講Elon 的說法是"無知"的說法 "無知"這兩個字非常的重 人家有相關的AI、腦機的經歷,而且絕對比一般人強的太多 就因為還沒人完全搞懂人腦運作,所以你就認定一家AI 公司的創辦人對這方面無知? 那你一定很有知是嗎?
kazami: 4.腦機介面不管是invasive或noninvasive,都只能看到一群 06/05 08:19
kazami: 神經元活化產生的電訊號,根本觀察不到單一個神經元的活化 06/05 08:20
kazami: 所以根本也不知道電訊號的在每個神經元傳遞的順序以及強弱 06/05 08:21
kazami: 如果他真的是一個研究過大腦功能與結構的人 不會輕易說出 06/05 08:26
kazami: 這種商人或是慣老闆才會講的話 06/05 08:26
Elon 的說法是,人類能靠兩隻眼睛(的觀察)就能夠開車,(如果能解決視覺辨識), 那AI 同樣能只依靠攝影機來開車,不需要依靠(像拐杖的)光達。 他從頭到尾從未有輕視人類大腦的說法或想法 而你卻只憑自己的臆測認為他的講法是慣老板才有的話? 我不知道你到底有沒有看過他對於這方面的相關談話、看法、或者是Joe Rogan 的訪談 如果有,你應該可以知道他對AI 以及腦機介面的了解很深刻 不然他也不會創辦Open.AI 與Neuralink 你要講創辦人對他的公司的研究不了解之前,你有任何憑證或仔細思考過嗎? 直接空口說白話講人家的說法無知,這就是你評論你不了解的人的方式?
kazami: 5.OpenAI的創始人就更好笑,現在AI氾濫的要死,連不懂醫學 06/05 08:27
kazami: 影像原理的,都可以直接把訊號跟影像丟進去給AI學習,然後 06/05 08:28
kazami: 完全不需要知道訊號在原理上轉換成影像就可以得到影像,你 06/05 08:29
kazami: 用這個OpenAI的創始人經歷想證明他說的有所本就更說不過去 06/05 08:29
kazami: musk也許在他自己的領域很成功沒錯,但這種覺得人家(大腦) 06/05 08:31
kazami: 沒什麼的表示方式真的很令人不能茍同(除非你上面的貼文跟 06/05 08:32
kazami: 跟musk真正講的話差很多) 06/05 08:33
看了你對Open.AI 的評價,你把它與一些氾濫的AI 公司相比,就知道你根本不了解 它的現任研究主管Ilya Sutskever 曾任Google 機器學習專家 也是深度學習領域內的重要貢獻者 Open.AI 的成果OpenAI Five、GPT-2、GPT-3....等等讓它被認為是DeepMind 的對手 而你卻把它與那些氾濫的AI 公司相比? 到底是誰不了解這領域?
kazami: 6.如果開車只是單純兩個眼睛就能達到,那前幾天也不會發生 06/05 08:35
kazami: 插入事件了 06/05 08:36
又來了 那則車禍主因在人,駕駛根本沒在看路才會這樣直直撞上 他開的Tesla 也不是無人駕駛車 然後就因為車主的過失就把責任丟給視覺辨識上嗎? 只靠兩隻眼睛無法開車沒錯,還要腦袋 車主不帶腦袋開車撞了,然後想怪到現在根本還沒完全開放的無人駕駛上? 根本是牽拖
a9876543245: 留言到底都什麼心態== 大家也可以分享自己喜歡的車廠 06/05 08:59
a9876543245: 新聞啊 整天要說洗文到底其他板上的文章是多有內容 06/05 08:59
a9876543245: 特斯拉是市場上的破壞者根本無庸置疑 沒有一台特斯拉 06/05 08:59
a9876543245: 但看這些新聞覺得很好啊 噓文的也去找些新聞來發啊 06/05 08:59
m996360: 發新聞是一回事,但發錯誤訊息卻到處亂咬人是另一回事 06/05 09:19
m996360: 其他人發特斯拉新聞到沒看到這種現象就是最好的說明 06/05 09:21
hondasho: 怎麼不先問問用自以為的態度挑戰專業是什麼心態? 06/05 09:21
flexin: 笑死 噓文的一堆劣幣在眼紅什麼啦 車板只歡迎良幣發文 06/05 09:55
ISNAKEI: 輔助駕駛 謝謝 06/05 11:34
KBchen: 這報告不錯耶 感謝分享 06/05 12:06
※ 編輯: Scape (36.224.217.107 臺灣), 06/05/2020 12:54:59
torso: 其實CV跟人眼判斷的能力還是有差距,更別說還有被adversari 06/06 15:12
torso: al attacks的可能性。對ANN有點理解會覺得Musk的講法稍微 06/06 15:12
torso: 樂觀,不過有夢最美 06/06 15:12