看板 Tech_Job 關於我們 聯絡資訊
英特爾Chipzilla未來計劃:AI ASIC晶片將於2019年出貨 http://bit.ly/2sm2sVQ 英特爾(Intel)公布Chipzilla的未來計劃。英特爾2018年5月23日在舊金山召開AI開發者 大會(AIDevCon) 發布了一系列機器學習軟體工具,並暗示新晶片,其中包括其首款商用 AI ASIC NNP-L1000,將於2019年推出。 該大會由英特爾人工智慧主管Naveen Rao啟動了Chipzilla的第一個AI開發者大會。2016 年英特爾收購的深度學習初創公司Nervana及團隊,Rao是Nervana的首席執行官和共同創 始人。 Rao認為,AI被過度炒作了且排擠了目前所有可用的數據和運算。實際上,AI革命就是一 場計算革命。每個人都可以加入AI,而顯然需要的就是一堆CPU整合再一起。 英特爾的目標是AI所需的工具而不是切開CPU。相反地,解決方案將來自深度學習和更經 典的計算方法(如:隨機森林或回歸分析)的混合。而這一切都可以藉由軟體和硬體的結 合來順利完成。下面是AIDevCon討論的一些問題。 軟體方面: MKL-DNN:代表深度神經網絡的數學內核庫。它是神經網絡中常見組件的數學程序列表, 包括矩陣乘法器、批量範數、歸一化和卷積。該庫的目的是針對英特爾CPU上部署模型進 行優化。 nGraph:提供開發人員選擇不同的AI框架,它們都有各自的優點和缺點。為使晶片變得靈 活,後端編譯器必須能夠有效地適應所有這些晶片。nGraph是一款在英特爾晶片上實現這 一功能的編譯器。開發人員可能希望在英特爾的至強處理器上訓練他們的模型,但隨後使 用英特爾的神經網絡處理器(NNP)進行推理。 BigDL類似Apache Spark,旨在使用分佈式學習在深度學習中處理更大的工作負載。應用 程序可以用Scala或Python編寫,並在Spark集群上執行。 OpenVINO是一款軟體工具包,用於部署處理“邊緣”視頻的模型,如於相機或行動電話等 物聯網裝置。開發人員可以即時進行面部辨識的圖像分類等功能。預計今年(2018)底前開 放下載。 硬體部分: Rao強調,以前Xeons不適合AI,但現在真的改變了。認為,GPU比CPU快100倍是錯誤的。 Rao解釋GPU在深度學習方面有一個很好的開端,但受限於嚴重的內存限制。Xeon擁有更多 的內存,可以大量擴展到市場。 他談到了FPGA的加速問題,並表示英特爾正在研究一種“離散加速器進行推理” (discrete accelerator for inference),但未分享任何細節。 同時,還有英特爾Movidius神經計算棒(Movidius Neural Compute Stick),是一個USB棒 ,可以運行使用TensorFlow和Caffe編寫的模型,耗電量約為1瓦。 神經網絡處理器(Neural Network Processor )是ASIC晶片也於去年(2017)發布,包含12 個基於其Lake Crest架構的內核,內存有32GB,在未公開的精度下性能達到40 TFLOPS, 對於低延遲互連,理論帶寬小於800納秒,每秒2.4 TB的高帶寬。NNP L1000將是第一個商 用NNP模型,並將於2019年推出。它將基於新的Spring Crest架構,預計比以前的Lake Crest模型快3~4倍。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1527585731.A.FBC.html
Kulo: GPU的記憶體就是個笑話 05/29 18:33
DynaxYoung: 不太懂這個領域…請問樓上怎麼會這麼說? 05/29 19:24
TWL731: 內存限制?沒翻錯嗎...... 05/29 22:08
jun0325: GPU一個SM上可以支援上萬個thred同時跑,但cache確沒辦法 05/30 08:28
jun0325: 同時scale up 05/30 08:28
jun0325: 每個thread分到的空間就少很多 05/30 08:28