推 smallreader : 鞭屍www 114.27.29.28 03/22 22:42
推 kqalea : 現在正在講H100 36.227.209.4 03/22 23:31
推 JuiFu617 : 500w都可以烤肉了 27.247.103.193 03/22 23:33
推 SAMMY728 : 4奈米. 謝謝 220.137.5.115 03/23 00:03
推 kqalea : H是700瓦 2G才是500W 36.227.209.4 03/23 00:47
噓 F04E : 工你媽藝118.238.237.116 03/23 09:09
→ Alwen : 標題錯惹 是4奈米 27.52.34.133 03/23 09:27
推 aegis43210 : 老黃的運算卡能不能達成他自己說的A 123.204.8.127 03/23 17:02
→ aegis43210 : I算力每12個月增加一倍呢? 123.204.8.127 03/23 17:02
推 kqalea : 超過了吧~尤其是transformer ASIC 36.227.209.4 03/23 17:24
→ kqalea : 靠著in-network/ in-memory 36.227.209.4 03/23 17:25
→ kqalea : 未來上去的空間還有~大概還有三個 36.227.209.4 03/23 17:26
推 aegis43210 : 不過GPGPU可以算多種模型,ASIC只能 123.204.8.127 03/23 17:26
→ aegis43210 : 算特定的 123.204.8.127 03/23 17:26
→ kqalea : 世代的空間,12月一倍的評估可能 36.227.209.4 03/23 17:27
→ kqalea : 遠遠低估了,反而是intel 1000x 36.227.209.4 03/23 17:27
→ kqalea : 比較接近現實 36.227.209.4 03/23 17:28
推 aegis43210 : i皇是希望靠architecture來達成1000 123.204.8.127 03/23 17:32
→ aegis43210 : x的目標,包括架構改良和3D封裝 123.204.8.127 03/23 17:32
推 aegis43210 : Coarse Grained Reconfigurable Arr 123.204.8.127 03/23 18:13
→ aegis43210 : ay和in-memory晶片,不知何時能合在 123.204.8.127 03/23 18:13
→ aegis43210 : 一起做Heterogeneous Integration 123.204.8.127 03/23 18:13
推 kqalea : 1000x其實沒啥,20年前教科書就說 36.227.209.4 03/23 22:11
→ kqalea : DRAM 慢 cache 1000x 36.227.209.4 03/23 22:11
→ kqalea : 現在基本上就是把瓶頸變成瓶身 36.227.209.4 03/23 22:12
→ kqalea : 讓平行化程度更高,overhead更小 36.227.209.4 03/23 22:15
→ kqalea : ML隨便一個model都幾億個參數 36.227.209.4 03/23 22:16
→ kqalea : 幾百層在跑,這種可高度平行化的 36.227.209.4 03/23 22:17
→ kqalea : 東西,加速個一百萬倍都不用驚訝 36.227.209.4 03/23 22:17
推 aegis43210 : 依照老黃定律,2030就1000X了 123.204.8.127 03/24 18:22