作者zxcvxx (zxcvxx)
看板Stock
標題[新聞] AI晶片設計不再單純考慮性能 如何降低成
時間Tue Oct 26 11:47:15 2021
原文標題:
AI晶片設計不再單純考慮性能 如何降低成本與提高效率將成為重點
(請勿刪減原文標題)
原文連結:
https://bit.ly/3Beh3nM
(請善用縮網址工具)
發布時間:
2021年10月26日
(請以原文網頁/報紙之發布時間為準)
原文內容:
由於數十億美元已投入AI新創公司,使得初期討論重點都放在性能上。但是,隨著AI訓練
模型需要更多的運算資源,使得重點工作正在轉移到晶片的運算成本之上。也就是說,AI
晶片的性價比反而變得更重要了。
AI晶片設計有不同的方法,如今的爭論是採取整合晶片還是解耦(Decoupled)的方法更
為經濟。對於晶片製造商來說,這是一場熟悉的戰場:到底零組件應該整合在AI大型晶片
中,或分佈在電路板或網絡上的網路處理單元上。
當今流行的AI系統是利用分佈在電腦中的數百個輝達繪圖處理器來完成。英特爾於2016年
併購的Nervana Systems就是這種分佈式方法的支持者,其AI處理是分別由更便宜的晶片
和零組件上運行,其中包括低成本DDR記憶體和 PCI-Express互連。建構大規模晶片的成
本遠高於用於將多個晶片連接在一起的微型晶片。
Cerebras Systems認為,將一系列晶片串在一起作為AI群聚是會增加硬體和費用,非線性
擴展並將它們聯繫在一起,甚至將所有其他基礎設施相結合,是會導致能源效率低下。
Cerebras於2021年8月出貨WSE-2 AI超級晶片以來,擁有850,000顆核心,是前一代的兩倍
。透過將互連頻寬加快至220 Pb/s,使其比繪圖處理器之間提供的頻帶還要快45,000倍以
上。即使Cerebras的設備很貴,但購買輝達12 DGX A100也是如此;而且Cerebras設備功
率更少,也沒有其他隱藏成本。
不過,有專家表示,AI晶片開發是如此多樣化,以至於廠商不能採取一刀切的方法來評斷
。軟體可以定義硬體,一些晶片可以在將相關數據輸入神經網絡之前,促進在邊緣運算的
處理。
Deepvision認為,通常硬體平台的開發並沒有太多考慮軟體,以及它如何在平台之間擴展
。因此,該公司才開發了一種軟體開發工具包,可將AI模型映射到各種硬體上。
未來,AI晶片設計也可能遵循Koomey定律,這是一個用來計算設備的耗電量每18個月就會
下降一半的定律。在晶片製造商停止提高晶片頻率後,持續了數十年的CPU爭奪戰已經轉
移到效率上。畢竟,AI應用變得越來越複雜,解決複雜問題的電量將必須受到限制。不能
為了提高性能而犧牲效率,這也是AI晶片未來的挑戰。
心得/評論: ※必需填寫滿20字
企業投資開發AI晶片,初期著重提升性能,如今如何打造性價比高的晶片反而成為關鍵。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1635220038.A.9DE.html
推 AustinRivers: 哪個產品不需要性價比... 10/26 11:51
推 jason90814 : 提高效能不難啊,功耗問題比較大 10/26 11:55
→ DIDIMIN : 翻譯:給我優質晶片就對了,怎麼壓低成本是你的事 10/26 12:03
推 chanel1259 : 提升不了性能就去壓低成本,要不要請教一下鴻海 10/26 12:12
推 Severine : 這不是廢話嗎 10/26 12:13
推 abcgo : 每經過60秒就有1分鐘過去? 10/26 13:26