看板 PC_Shopping 關於我們 聯絡資訊
今天晚上,NVIDIA GTC 2022春季開發者大會就將召開,黃仁勳也將發表主題演講 幾乎肯定會發布基於Hopper架構的新一代高性能計算GPU和相關產品。 就在最後時刻,H100加速計算卡的渲染圖曝光了: SXM樣式,整體異常緊湊,整個電路板幾乎滿滿的都是各種元器件,中間自然就是GH100核 心。 從渲染圖上可以清晰地看到8組GPC(圖形處理集群),事實上如果放大慢慢數,可以確認 144組SM 也就是對應18432個CUDA核心,相比於Ampere架構大核心GA100 6912個多出足足1.67倍。 當然,按慣例應該不會開啟所有核心,勢必要遮罩一部分以確保良品率。 而根據昨日消息,8組GPC中只有一組開啟3D圖形引擎,畢竟這是計算卡。 這也是NVIDIA第一個5nm工藝的GPU,仍然堅持單晶片設計,預計核心面積900平方毫米左 右 功耗可能達到500W,另外預計還有雙芯封裝的GH202。本次大會上 NVIDIA應該還會推出基於Hopper GH100核心的工作站、個人超級計算機等相關產品 甚至可能會公佈PCIe介面樣式的H100計算卡。 來源 https://news.mydrivers.com/1/821/821665.htm XF編譯 https://www.xfastest.com/thread-260262-1-1.html 先發表專業架構 老黃帥氣皮衣登場 老黃年事已高白髮蒼蒼 歲月催人老 -- http://i.imgur.com/JS7qgbp.png RX VEGA 哪裡有16G VRAM 啪啪啪 https://www.ptt.cc/bbs/PC_Shopping/M.1501122468.A.2E6.html 說好的RXvega有16g的vram完全碾壓1080ti的11g -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.163.176.121 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1647958327.A.606.html
smallreader : 鞭屍www 114.27.29.28 03/22 22:42
kqalea : 現在正在講H100 36.227.209.4 03/22 23:31
JuiFu617 : 500w都可以烤肉了 27.247.103.193 03/22 23:33
SAMMY728 : 4奈米. 謝謝 220.137.5.115 03/23 00:03
kqalea : H是700瓦 2G才是500W 36.227.209.4 03/23 00:47
F04E : 工你媽藝118.238.237.116 03/23 09:09
Alwen : 標題錯惹 是4奈米 27.52.34.133 03/23 09:27
aegis43210 : 老黃的運算卡能不能達成他自己說的A 123.204.8.127 03/23 17:02
aegis43210 : I算力每12個月增加一倍呢? 123.204.8.127 03/23 17:02
kqalea : 超過了吧~尤其是transformer ASIC 36.227.209.4 03/23 17:24
kqalea : 靠著in-network/ in-memory 36.227.209.4 03/23 17:25
kqalea : 未來上去的空間還有~大概還有三個 36.227.209.4 03/23 17:26
aegis43210 : 不過GPGPU可以算多種模型,ASIC只能 123.204.8.127 03/23 17:26
aegis43210 : 算特定的 123.204.8.127 03/23 17:26
kqalea : 世代的空間,12月一倍的評估可能 36.227.209.4 03/23 17:27
kqalea : 遠遠低估了,反而是intel 1000x 36.227.209.4 03/23 17:27
kqalea : 比較接近現實 36.227.209.4 03/23 17:28
aegis43210 : i皇是希望靠architecture來達成1000 123.204.8.127 03/23 17:32
aegis43210 : x的目標,包括架構改良和3D封裝 123.204.8.127 03/23 17:32
aegis43210 : Coarse Grained Reconfigurable Arr 123.204.8.127 03/23 18:13
aegis43210 : ay和in-memory晶片,不知何時能合在 123.204.8.127 03/23 18:13
aegis43210 : 一起做Heterogeneous Integration 123.204.8.127 03/23 18:13
kqalea : 1000x其實沒啥,20年前教科書就說 36.227.209.4 03/23 22:11
kqalea : DRAM 慢 cache 1000x 36.227.209.4 03/23 22:11
kqalea : 現在基本上就是把瓶頸變成瓶身 36.227.209.4 03/23 22:12
kqalea : 讓平行化程度更高,overhead更小 36.227.209.4 03/23 22:15
kqalea : ML隨便一個model都幾億個參數 36.227.209.4 03/23 22:16
kqalea : 幾百層在跑,這種可高度平行化的 36.227.209.4 03/23 22:17
kqalea : 東西,加速個一百萬倍都不用驚訝 36.227.209.4 03/23 22:17
aegis43210 : 依照老黃定律,2030就1000X了 123.204.8.127 03/24 18:22